JP2020095651A - Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program - Google Patents

Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program Download PDF

Info

Publication number
JP2020095651A
JP2020095651A JP2018235004A JP2018235004A JP2020095651A JP 2020095651 A JP2020095651 A JP 2020095651A JP 2018235004 A JP2018235004 A JP 2018235004A JP 2018235004 A JP2018235004 A JP 2018235004A JP 2020095651 A JP2020095651 A JP 2020095651A
Authority
JP
Japan
Prior art keywords
evaluation
unit
person
manufacturing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018235004A
Other languages
Japanese (ja)
Inventor
正也 高森
Masaya Takamori
正也 高森
雄毅 笠原
Yuki Kasahara
雄毅 笠原
夕貴 松田
Yuki Matsuda
夕貴 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2018235004A priority Critical patent/JP2020095651A/en
Publication of JP2020095651A publication Critical patent/JP2020095651A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

To provide a productivity evaluation system for evaluating an operation rate of a manufacturing facility at a relatively low introduction cost.SOLUTION: A productivity evaluation system includes: a camera installed for photographing a manufacturing site; a position identification part which identifies a position of a human from among images photographed by the camera; and an evaluation part which generates an evaluation value for evaluating an operation rate of the manufacturing facility installed in the manufacturing site. Preferably further included is a human extraction part which extracts a feature image of the human from among the images photographed by the camera, the position identification part identifies a position of the feature image of the human extracted by the human extraction part, and the evaluation part determines whether or not the feature image of the human is present in a region set with reference to at least one of an installation position and an installation direction of the manufacturing facility and generates the evaluation value based on the number of people present in the set region.SELECTED DRAWING: Figure 2

Description

本発明は、生産性評価システム、生産性評価装置、生産性評価方法、及びプログラムに関する。 The present invention relates to a productivity evaluation system, a productivity evaluation device, a productivity evaluation method, and a program.

例えば、特許文献1には、繰り返しの動作が行われる作業に対する作業者の作業品質管理方法であって、過去の作業者の動線データ、当該作業対象品の過去の中間品質データ、当該作業対象品の過去の最終品質データから、前記動線データ及び前記中間品質データを入力とし、前記最終品質データを出力とする予測モデルを統計的に構築するモデル構築ステップ102と、撮像された画像データから、作業者の位置を認識する作業者位置認識ステップ104と、前記作業者位置認識ステップで認識した作業者位置を、前記モデル構築ステップで構築したモデルに代入し、対象の作業が正常であるか異常であるかを判定する作業者位置異常判定ステップ105と、を有する作業品質管理方法が開示されている。 For example, in Patent Document 1, there is a work quality control method for a worker with respect to a work in which repetitive motions are performed. The flow line data of the past worker, past intermediate quality data of the work target product, the work target Model pasting step 102 for statistically constructing a predictive model in which the flow line data and the intermediate quality data are input and the final quality data is output from the past final quality data of the product; Substituting the worker position recognition step 104 for recognizing the position of the worker and the worker position recognized in the worker position recognition step into the model constructed in the model construction step to determine whether the target work is normal. There is disclosed a work quality control method including a worker position abnormality determination step 105 for determining whether there is an abnormality.

特許文献2には、測定対象の作業を実行する作業者について、複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、各時点での作業者の身体状態の情報を取得する検出情報取得部と、検出情報取得部で得た情報に基づき、作業者の作業に対する評価値を算出する評価値算出部と、編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの評価値に基づいて、前記複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行う出力制御部とを備える工程編成支援装置が開示されている。
特許文献3には、モニタ500に表示させたフレームから、ユーザにより追跡対象領域が選択されると、当該領域を追跡対象情報として取得し、追跡対象情報記憶部354に記憶し、追跡対象情報記憶部354に記憶された追跡対象情報、及び所定の追跡手法により生成した確率分布画像に基づき、追跡対象物体を追跡し、追跡結果データを追跡結果データ記憶部356に記憶し、追跡結果データ記憶部356に記憶された追跡結果データのフレーム毎に色情報を関連付け、時間的に1つ前に位置するフレームの中心座標から、その次のフレームの中心座標に線を引き、この処理を追跡結果データが取得できなくなるまで、繰り返し実行する軌跡描画システムが開示されている。
Patent Document 2 discloses a body condition of an operator at each point in time in which a worker performing a work to be measured is simply modeled by a detection point corresponding to a plurality of body parts and a line connecting the detection points. Detection information acquisition unit that acquires information of the operator, an evaluation value calculation unit that calculates an evaluation value for the worker's work based on the information obtained by the detection information acquisition unit, and a knitting content that is different for a group of processes to be knitted A knitting simulation for obtaining a plurality of process knitting is performed, and one or more process knitting is selected from the plurality of process knitting based on the evaluation value for each process knitting obtained by the knitting simulation, and the selected process knitting is selected. And an output control unit that performs control for presenting the information of 1.
In Patent Document 3, when the tracking target area is selected by the user from the frame displayed on the monitor 500, the area is acquired as tracking target information and stored in the tracking target information storage unit 354. The tracking target object is tracked based on the tracking target information stored in the unit 354 and the probability distribution image generated by a predetermined tracking method, and the tracking result data is stored in the tracking result data storage unit 356. The color information is associated with each frame of the tracking result data stored in 356, a line is drawn from the center coordinate of the frame located immediately before in time to the center coordinate of the next frame, and this process is performed. There is disclosed a trajectory drawing system which is repeatedly executed until it cannot be obtained.

特開2016−157357JP, 2016-157357, A 特開2017−068432JP, 2017-068432, A 特開2016−042306JP, 2016-042306, A

比較的安価な導入コストで、製造設備の稼働率を評価する生産性評価システムを提供することを目的とする。 It is an object of the present invention to provide a productivity evaluation system that evaluates the operating rate of manufacturing equipment at a relatively low introduction cost.

本発明に係る生産性評価システムは、製造現場を撮影するために設置されたカメラと、前記カメラにより撮影された画像の中から、人の位置を特定する位置特定部と、前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部とを有する。 The productivity evaluation system according to the present invention includes a camera installed to photograph a manufacturing site, a position specifying unit that specifies a position of a person from an image taken by the camera, and the position specifying unit. And an evaluation unit that generates an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the specified position of the person.

好適には、前記カメラにより撮影された画像の中から、人の特徴画像を抽出する人抽出部をさらに有し、前記位置特定部は、前記人抽出部により抽出された人の特徴画像の位置を特定し、前記評価部は、前記製造設備の設置位置及び設置方向の少なくとも一方を基準として設定された領域に、人の特徴画像が存在するか否かを判定し、設定された領域に存在する人の数に基づいて、前記評価値を生成する。 Suitably, it further has a person extraction unit that extracts a characteristic image of a person from the images taken by the camera, and the position specifying unit is a position of the characteristic image of the person extracted by the person extraction unit. The evaluation unit determines whether or not a characteristic image of a person exists in the area set based on at least one of the installation position and the installation direction of the manufacturing facility, and exists in the set area. The evaluation value is generated based on the number of people who perform the evaluation.

好適には、前記カメラは、時間的に連続する複数の静止画像、又は、動画像を撮影し、前記評価部は、設定された領域に存在する人の滞在時間及び人数を前記評価値として算出する。 Preferably, the camera captures a plurality of still images or moving images that are temporally continuous, and the evaluation unit calculates the staying time and the number of people existing in the set area as the evaluation value. To do.

好適には、前記カメラにより撮影されたいずれかの画像に対して、前記評価部により生成された評価値を示す評価値画像を重畳して表示する表示部をさらに有する。 Suitably, it further has a display part which superimposes and displays the evaluation value image which shows the evaluation value generated by the above-mentioned evaluation part on one of the pictures picturized by the above-mentioned camera.

好適には、前記製造現場における音声、又は、前記製造設備により消費される電力を検知する検知部と、前記検知部により検知された音声又は電力に基づいて、前記製造設備の稼働率を評価するための第2の評価値を生成する第2評価部と、前記評価部により算出された滞在時間又は人数と、前記第2評価部により生成された第2の評価値とを対比可能に配置して表示する表示部とをさらに有する。 Preferably, the operating rate of the manufacturing facility is evaluated based on the voice at the manufacturing site or the detection unit that detects the power consumed by the manufacturing facility, and the voice or the power detected by the detection unit. A second evaluation unit for generating a second evaluation value for the purpose, a staying time or the number of people calculated by the evaluation unit, and a second evaluation value generated by the second evaluation unit are arranged so that they can be compared with each other. And a display unit for displaying the information.

好適には、前記製造現場の作業者により記載された業務報告をスキャンするスキャナ装置と、前記スキャナ装置によりスキャンされた業務報告から、記載事項を抽出する記載抽出部と、時間軸に基づいて、前記記載抽出部により抽出された記載事項と、前記評価部により算出された滞在時間又は人数とを関連付けて表示する表示部とをさらに有する。 Preferably, a scanner device that scans the business report described by the worker at the manufacturing site, a business report scanned by the scanner device, a description extraction unit that extracts the description items, and based on the time axis, The description further includes a display unit that displays the description items extracted by the description extraction unit and the stay time or the number of persons calculated by the evaluation unit in association with each other.

また、本発明に係る生産性評価装置は、製造現場に設置されたカメラにより撮影された画像の中から、人の位置を特定する位置特定部と、前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部とを有する。 Further, the productivity evaluation apparatus according to the present invention is a position specifying unit that specifies a position of a person from among images taken by a camera installed at a manufacturing site, and a position of the person specified by the position specifying unit. And an evaluation unit that generates an evaluation value for evaluating the operating rate of the manufacturing facility installed at the manufacturing site.

また、本発明に係る生産性評価方法は、カメラが、製造現場を撮影するステップと、コンピュータが、前記カメラにより撮影された画像の中から、人の位置を特定するステップと、コンピュータが、特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップとを有する。 Further, in the productivity evaluation method according to the present invention, a camera takes a picture of a manufacturing site, a computer specifies a position of a person from an image taken by the camera, and a computer specifies Generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the person who has performed the operation.

また、本発明に係るプログラムは、製造現場を撮影するために設置されたカメラにより撮影された画像の中から、人の位置を特定するステップと、特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップとをコンピュータに実行させる。 Further, the program according to the present invention is based on the step of identifying the position of a person from the images captured by the camera installed to capture the production site, and the manufacturing based on the identified position of the person. And a step of generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the site.

比較的安価な導入コストで、製造設備の稼働率を評価できる。 The operating rate of manufacturing equipment can be evaluated at a relatively low introduction cost.

生産性評価システム1の全体構成を例示する図である。It is a figure which illustrates the whole structure of the productivity evaluation system 1. 製造工場9に設置された製造設備900と、人の作業領域902とを例示する図である。It is a figure which illustrates the manufacturing equipment 900 installed in the manufacturing factory 9, and the work area 902 of a person. 生産性評価装置2のハードウェア構成を例示する図である。It is a figure which illustrates the hardware constitutions of the productivity evaluation apparatus 2. 生産性評価装置2の機能構成を例示する図である。It is a figure which illustrates the functional structure of the productivity evaluation apparatus 2. 評価部230をより詳細に説明する図である。It is a figure explaining the evaluation part 230 in detail. タブレット端末4によるカメラ制御処理(S10)を説明するフローチャートである。It is a flow chart explaining camera control processing (S10) by tablet terminal 4. 生産性評価装置2による動線可視化処理(S20)を説明するフローチャートである。It is a flow chart explaining flow line visualization processing (S20) by productivity evaluation device 2. 製造設備900の作業領域902における、単位時間当たりの滞在人数を表すグラフを例示する図である。It is a figure which illustrates the graph showing the number of persons staying per unit time in the work area 902 of the manufacturing equipment 900. 業務報告の解析結果と、撮影画像による評価結果とを対比可能に表示する表示例である。It is a display example in which the analysis result of the business report and the evaluation result by the captured image are displayed in a comparable manner. 製造工場9内の各領域における作業員の滞在時間を色で示すヒートマップを例示する図である。It is a figure which illustrates the heat map which shows the stay time of the worker in each area|region in the manufacturing factory 9 by color. 変形例1における生産性評価システム1の機能構成を例示する図である。It is a figure which illustrates the functional structure of the productivity evaluation system 1 in the modification 1. 変形例1におけるタブレット端末4のカメラ制御処理(S12)を説明するフローチャートである。9 is a flowchart illustrating a camera control process (S12) of the tablet terminal 4 according to Modification 1. 変形例1における生産性評価装置2の動線可視化処理(S22)を説明するフローチャートである。9 is a flowchart illustrating a flow line visualization process (S22) of the productivity evaluation device 2 in Modification Example 1. 変形例2における生産性評価装置2の機能構成を例示する図である。It is a figure which illustrates the functional structure of the productivity evaluation apparatus 2 in the modification 2. (A)は、音声を利用する第2評価部250をより詳細に説明する図であり、(B)は、電力値を利用する第2評価部250をより詳細に説明する図である。(A) is a figure explaining the 2nd evaluation part 250 using a voice in more detail, (B) is a figure explaining the 2nd evaluation part 250 using a power value in more detail. 作業内容を比較する第2評価部250の構成を例示する図である。It is a figure which illustrates the structure of the 2nd evaluation part 250 which compares work content. 作業内容比較処理(S30)を説明するフローチャートである。It is a flow chart explaining work contents comparison processing (S30).

以下、本発明の実施形態を、図面を参照して説明する。
図1は、生産性評価システム1の全体構成を例示する図である。
図1に例示するように、生産性評価システム1は、生産性評価装置2と、タブレット端末4とを有し、これらがネットワーク7を介して互いに接続している。また、生産性評価装置2には、スキャナ装置3が接続されている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating an overall configuration of the productivity evaluation system 1.
As illustrated in FIG. 1, the productivity evaluation system 1 includes a productivity evaluation device 2 and a tablet terminal 4, which are connected to each other via a network 7. A scanner device 3 is connected to the productivity evaluation device 2.

生産性評価装置2は、本発明に係る生産性評価装置の一例であり、生産性評価プログラム22(後述)が動作するコンピュータ端末である。本例では、スタンドアロンのコンピュータ端末である生産性評価装置2を具体例として説明するが、これに限定されるものではなく、例えば、クラウド上の仮想マシン等であってもよい。
本例の生産性評価装置2は、タブレット端末4により撮影された画像に基づいて、製造設備900(後述)の稼働率を評価するための評価情報を生成し、生成された評価情報を表示する。
スキャナ装置3は、製造現場の作業者により記載された業務報告をスキャンする。
The productivity evaluation device 2 is an example of the productivity evaluation device according to the present invention, and is a computer terminal on which a productivity evaluation program 22 (described later) operates. In this example, the productivity evaluation device 2 which is a stand-alone computer terminal is described as a specific example, but the invention is not limited to this, and may be, for example, a virtual machine on a cloud.
The productivity evaluation device 2 of this example generates evaluation information for evaluating the operating rate of the manufacturing facility 900 (described later) based on the image captured by the tablet terminal 4, and displays the generated evaluation information. ..
The scanner device 3 scans the business report written by the worker at the manufacturing site.

タブレット端末4は、カメラが内蔵されたコンピュータ端末であり、本発明に係るカメラの一例である。タブレット端末4は、製造設備900が設置された製造現場を内蔵カメラで撮影し、撮影された画像データを生産性評価装置2に送信する。例えば、タブレット端末4は、製造工場に設置された複数の製造設備900を撮影可能な位置に設置され、時間的に連続する複数の静止画像、又は、動画像を撮影する。本例のタブレット端末4は、製造工場9の全体を撮影可能な位置に設置され、動画像を撮影し、撮影された動画データを生産性評価装置2に送信する。 The tablet terminal 4 is a computer terminal with a built-in camera and is an example of the camera according to the present invention. The tablet terminal 4 photographs the manufacturing site where the manufacturing facility 900 is installed with a built-in camera, and transmits the photographed image data to the productivity evaluation device 2. For example, the tablet terminal 4 is installed at a position where a plurality of manufacturing facilities 900 installed in a manufacturing factory can be captured, and captures a plurality of temporally continuous still images or moving images. The tablet terminal 4 of this example is installed at a position where the entire manufacturing factory 9 can be photographed, photographs a moving image, and transmits the photographed moving image data to the productivity evaluation device 2.

図2は、製造工場9に設置された製造設備900と、人の作業領域902とを例示する図である。
図2に例示するように、製造設備900には、例えば、ボール盤900A、レーザー加工機900B、及び、プレス加工機900Cなどが含まれる。これらの製造設備900それぞれには、その設置位置及び設置方向(設置されている向き)を基準として、作業者が作業するであろう作業領域902が定義されている。
本例のタブレット端末4は、少なくとも作業領域902が撮影可能な位置に設置され、生産性評価装置2は、タブレット端末4により撮影された画像に基づいて、作業領域902に存在する作業者の人数及び滞在時間を算出し、算出された人数及び滞在時間に基づいて、製造設備900の稼働率を評価するための評価情報を生成する。
製造設備900の中には、ボール盤900A等のように、アナログな機器が存在し、ネットワーク接続できない。そこで、本例の生産性評価システム1では、作業領域902における作業者の人数及び滞在時間から、間接的に、製造設備900の稼働率が評価される。
さらに、本例の生産性評価システム1では、製造設備900の作業領域902に加え、作業者の動線となる通路、及び、資材置き場910等も撮影され、これらの場所における作業者の滞在時間も算出することにより、製造のボトルネックとなっている工程を抽出でき、製造工場9全体の生産性を評価することができる。
FIG. 2 is a diagram illustrating a manufacturing facility 900 installed in the manufacturing factory 9 and a work area 902 for a person.
As illustrated in FIG. 2, the manufacturing facility 900 includes, for example, a drilling machine 900A, a laser processing machine 900B, and a press processing machine 900C. In each of these manufacturing facilities 900, a work area 902 in which a worker will work is defined based on the installation position and installation direction (installation direction).
The tablet terminal 4 of this example is installed at a position where at least the work area 902 can be photographed, and the productivity evaluation device 2 determines the number of workers existing in the work area 902 based on the image photographed by the tablet terminal 4. And the staying time are calculated, and the evaluation information for evaluating the operating rate of the manufacturing facility 900 is generated based on the calculated number of people and the staying time.
There is an analog device such as a drilling machine 900A in the manufacturing facility 900, and network connection is not possible. Therefore, in the productivity evaluation system 1 of this example, the operating rate of the manufacturing facility 900 is indirectly evaluated from the number of workers in the work area 902 and the staying time.
Further, in the productivity evaluation system 1 of the present example, in addition to the work area 902 of the manufacturing facility 900, the passage that is the flow line of the worker, the material storage 910, and the like are also photographed, and the staying time of the worker in these places is taken. By also calculating, it is possible to extract the process that is the bottleneck in manufacturing, and evaluate the productivity of the entire manufacturing factory 9.

図3は、生産性評価装置2のハードウェア構成を例示する図である。
図3に例示するように、生産性評価装置2は、CPU200、メモリ202、HDD204、ネットワークインタフェース206(ネットワークIF206)、表示装置208、及び入力装置210を有し、これらの構成はバス212を介して互いに接続している。
CPU200は、例えば、中央演算装置である。
メモリ202は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD204は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図4の生産性評価プログラム22)やその他のデータファイルを格納する。
ネットワークIF206は、有線又は無線で通信するためのインタフェースである。
表示装置208は、例えば、液晶ディスプレイである。
入力装置210は、例えば、キーボード及びマウスである。
FIG. 3 is a diagram illustrating a hardware configuration of the productivity evaluation device 2.
As illustrated in FIG. 3, the productivity evaluation device 2 includes a CPU 200, a memory 202, an HDD 204, a network interface 206 (network IF 206), a display device 208, and an input device 210, and these configurations are via a bus 212. Connected to each other.
The CPU 200 is, for example, a central processing unit.
The memory 202 is, for example, a volatile memory and functions as a main storage device.
The HDD 204 is, for example, a hard disk drive device, and stores a computer program (for example, the productivity evaluation program 22 in FIG. 4) and other data files as a nonvolatile recording device.
The network IF 206 is an interface for wired or wireless communication.
The display device 208 is, for example, a liquid crystal display.
The input device 210 is, for example, a keyboard and a mouse.

図4は、生産性評価装置2の機能構成を例示する図である。
図4に例示するように、生産性評価装置2には、生産性評価プログラム22がインストールされ、撮影画像データベース260(撮影画像DB260)、業務報告データベース270(業務報告DB270)、及び評価結果データベース280(評価結果DB280)が構成されている。生産性評価プログラム22は、例えば、CD−ROM等の記録媒体に格納されており、この記録媒体を介して、生産性評価装置2にインストールされる。
なお、生産性評価プログラム22の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。また、これらのプログラム全てが一台のコンピュータ端末にインストールされてもよいし、クラウド上の仮想マシンにインストールされてもよい。
FIG. 4 is a diagram illustrating a functional configuration of the productivity evaluation device 2.
As illustrated in FIG. 4, the productivity evaluation program 22 is installed in the productivity evaluation device 2, and the captured image database 260 (captured image DB 260), the business report database 270 (business report DB 270), and the evaluation result database 280. (Evaluation result DB 280) is configured. The productivity evaluation program 22 is stored in, for example, a recording medium such as a CD-ROM, and is installed in the productivity evaluation device 2 via this recording medium.
Note that part or all of the productivity evaluation program 22 may be realized by hardware such as an ASIC, or may be realized by partially borrowing a function of an OS (Operating System). Further, all of these programs may be installed in one computer terminal or may be installed in a virtual machine on the cloud.

生産性評価プログラム22は、画像取得部220、骨格検出部222、骨格座標抽出部224、記載抽出部226、関連付け部228、評価部230、及び表示部240を有する。
生産性評価プログラム22において、画像取得部220は、製造現場で撮影された画像データを取得する。本例の画像取得部220は、タブレット端末4により撮影された動画像データを、タブレット端末4から受信し、受信した動画像データを撮影日時に関連付けて撮影画像DB260に登録する。
The productivity evaluation program 22 has an image acquisition unit 220, a skeleton detection unit 222, a skeleton coordinate extraction unit 224, a description extraction unit 226, an association unit 228, an evaluation unit 230, and a display unit 240.
In the productivity evaluation program 22, the image acquisition unit 220 acquires the image data captured at the manufacturing site. The image acquisition unit 220 of this example receives the moving image data shot by the tablet terminal 4 from the tablet terminal 4, and registers the received moving image data in the shot image DB 260 in association with the shooting date and time.

骨格検出部222は、画像取得部220により取得された画像データの中から、人の骨格に相当する画像を検出する。なお、骨格検出部222は、本発明に係る人抽出部の一例であり、人の骨格に相当する画像の代わりに、人の顔を人の特徴画像として検出してもよい。 The skeleton detection unit 222 detects an image corresponding to a human skeleton from the image data acquired by the image acquisition unit 220. The skeleton detection unit 222 is an example of the human extraction unit according to the present invention, and may detect a human face as a human characteristic image instead of the image corresponding to the human skeleton.

骨格座標抽出部224は、骨格検出部222により検出された人の骨格画像の座標を、人の位置情報として抽出する。本例の骨格座標抽出部224は、人の首の部分の座標を抽出する。なお、骨格座標抽出部224は、本発明に係る位置特定部の一例である。 The skeleton coordinate extraction unit 224 extracts the coordinates of the skeleton image of the person detected by the skeleton detection unit 222 as the position information of the person. The skeleton coordinate extraction unit 224 of this example extracts the coordinates of the human neck. The skeleton coordinate extracting unit 224 is an example of the position specifying unit according to the present invention.

記載抽出部226は、スキャナ装置3によりスキャンされた業務報告から、記載事項を抽出する。例えば、記載抽出部226は、業務報告の書式定義に従って、スキャンされた業務報告から、作業内容と作業の実施日時とを抽出する。本例の記載抽出部226は、スキャンされた業務報告から、作業内容と作業の実施日時とを抽出し、抽出された作業内容と実施日時とを互いに関連付けて業務報告DB270に登録する。 The description extraction unit 226 extracts description items from the business report scanned by the scanner device 3. For example, the description extraction unit 226 extracts the work content and the work execution date and time from the scanned business report according to the format definition of the business report. The description extraction unit 226 of this example extracts the work content and the work execution date and time from the scanned work report, and registers the extracted work content and the execution date and time in the work report DB 270 in association with each other.

関連付け部228は、時間軸に基づいて、記載抽出部226により抽出された記載事項と、評価部230による評価結果とを関連付ける。例えば、関連付け部228は、日報に記載された作業内容及び実施日時と、評価部230により算出された各作業領域902の滞在時間又は滞在人数とを比較して、互いに関連付ける。 The associating unit 228 associates the description items extracted by the description extracting unit 226 with the evaluation result by the evaluation unit 230 based on the time axis. For example, the associating unit 228 compares the work content and the implementation date and time described in the daily report with the stay time or the number of guests in each work area 902 calculated by the evaluation unit 230, and associates each other.

評価部230は、骨格座標抽出部224により抽出された座標に基づいて、製造設備900の稼働率を評価するための評価値を生成する。例えば、評価部230は、製造設備900の設置位置及び設置方向を基準として設定された作業領域902それぞれに、人の骨格座標が存在するか否かを判定し、設定された作業領域902それぞれに存在する人の数を時間帯毎にカウントし、カウントされた人数に基づいて、製造設備900の稼働率を評価するための評価値を生成し、評価結果DB280に登録する。登録される評価値は、例えば、各作業領域902における滞在人数そのものであってもよいし、全作業員の数で正規化された滞在人数等であってもよい。 The evaluation unit 230 generates an evaluation value for evaluating the operating rate of the manufacturing facility 900 based on the coordinates extracted by the skeleton coordinate extraction unit 224. For example, the evaluation unit 230 determines whether or not the skeleton coordinates of a person exist in each work area 902 set based on the installation position and the installation direction of the manufacturing equipment 900, and the work area 902 is set in each set work area 902. The number of existing people is counted for each time period, an evaluation value for evaluating the operating rate of the manufacturing facility 900 is generated based on the counted number of people, and the evaluation value is registered in the evaluation result DB 280. The registered evaluation value may be, for example, the number of people staying in each work area 902 itself, or the number of people staying normalized by the number of all workers.

より具体的には、図5に例示するように、評価部230は、人数算出部232及び動線可視化部234を含む。人数算出部232は、作業領域902それぞれに、人の骨格座標が存在するか否かを判定し、設定された作業領域902それぞれに存在する人の数を時間帯毎にカウントし、各時間帯の滞在人数を評価値として出力する。本例の人数算出部232は、図8に例示するように、各製造設備900の作業領域902における、単位時間当たりの滞在人数を表すグラフを生成する。図8のグラフでは、横軸が時間帯であり、縦軸が単位時間当たりの滞在人数である。本例では、各製造設備900の作業領域における単位時間当たりの作業員の滞在人数が、製造設備900の稼働率の指標となっている。 More specifically, as illustrated in FIG. 5, the evaluation unit 230 includes a number-of-people calculation unit 232 and a flow line visualization unit 234. The number-of-persons calculation unit 232 determines whether or not the skeleton coordinates of the person exist in each of the work areas 902, counts the number of persons in each of the set work areas 902 for each time zone, and determines each time zone. The number of people staying at is output as an evaluation value. As illustrated in FIG. 8, the number-of-persons calculation unit 232 of this example generates a graph showing the number of persons staying per unit time in the work area 902 of each manufacturing facility 900. In the graph of FIG. 8, the horizontal axis represents the time zone and the vertical axis represents the number of people staying per unit time. In this example, the number of workers staying in the work area of each manufacturing facility 900 per unit time is an index of the operating rate of the manufacturing facility 900.

動線可視化部234は、骨格座標抽出部224により抽出された座標に基づいて、製造現場における人の動線を可視化した画像を生成する。本例の動線可視化部234は、図10に例示するように、製造工場9内の各領域における作業員の滞在時間を色で示すヒートマップを生成する。図10のヒートマップでは、製造工場9内の各領域(作業領域、通路、及び、資材置き場910等を含む)における、作業員の滞在人数又は滞在時間が色で表されており、作業員の動線、及び、主な滞在箇所が可視化されている。 The flow line visualization unit 234 generates an image that visualizes the flow line of a person on the manufacturing site based on the coordinates extracted by the skeleton coordinate extraction unit 224. As illustrated in FIG. 10, the flow line visualization unit 234 of the present example generates a heat map that indicates the staying time of the worker in each region in the manufacturing factory 9 by color. In the heat map of FIG. 10, the number of workers staying or the staying time in each area (including the work area, the passage, the material storage 910, etc.) in the manufacturing factory 9 is represented by a color. The flow lines and the main places of stay are visualized.

表示部240は、タブレット端末4により撮影されたいずれかの画像に対して、評価部230により生成された評価値を示す評価値画像を重畳して表示する。評価値画像は、例えば、各領域に滞在する人数又は滞在時間を色や模様等で表す画像である。本例の表示部240は、動線可視化部234により生成されたヒートマップを、タブレット端末4で撮影された画像に重畳して表示する。 The display unit 240 superimposes and displays the evaluation value image indicating the evaluation value generated by the evaluation unit 230 on any of the images captured by the tablet terminal 4. The evaluation value image is, for example, an image in which the number of people staying in each area or the staying time is represented by a color, a pattern, or the like. The display unit 240 of this example displays the heat map generated by the flow line visualization unit 234 by superimposing it on the image captured by the tablet terminal 4.

また、表示部240は、関連付け部228により関連付けられた記載事項と、評価部230により算出された滞在時間又は人数とを互いに関連付けて表示する。本例の表示部240は、図9に例示するように、評価部230により算出された各作業領域902の滞在時間(すなわち、製造設備900の稼働率)と、記載抽出部226により抽出された業務報告の記載事項(業務報告の解析結果)とを互いに関連付けて表示する。図9における業務報告の解析結果は、業務報告の記載事項から、各作業員の作業内容を特定し、特定された作業内容の所要時間を算出したものである。製造設備900の稼働率と、作業の所要時間との相関の有無によって、工場レイアウトや設備増設等の効率化を検討することができる。 In addition, the display unit 240 displays the description items associated by the association unit 228 and the stay time or the number of persons calculated by the evaluation unit 230 in association with each other. As illustrated in FIG. 9, the display unit 240 of the present example is extracted by the description extraction unit 226 and the staying time of each work area 902 calculated by the evaluation unit 230 (that is, the operating rate of the manufacturing equipment 900). The items described in the business report (analysis results of the business report) are displayed in association with each other. The analysis result of the work report in FIG. 9 is obtained by specifying the work content of each worker from the items described in the work report and calculating the required time of the specified work content. Depending on whether or not there is a correlation between the operating rate of the manufacturing facility 900 and the time required for the work, it is possible to study the efficiency of the factory layout and facility expansion.

図6は、タブレット端末4によるカメラ制御処理(S10)を説明するフローチャートである。
図6に例示するように、ステップ100(S100)において、タブレット端末4は、電源が投入されるまで待機し(S100:No)、電源が投入されると、S105の処理に移行する。
FIG. 6 is a flowchart illustrating the camera control process (S10) by the tablet terminal 4.
As illustrated in FIG. 6, in step 100 (S100), the tablet terminal 4 waits until the power is turned on (S100: No), and when the power is turned on, the process proceeds to step S105.

ステップ105(S105)において、タブレット端末4は、時刻タイマを開始する。
ステップ110(S110)において、タブレット端末4は、内蔵のカメラを初期化する。
In step 105 (S105), the tablet terminal 4 starts a time timer.
In step 110 (S110), the tablet terminal 4 initializes the built-in camera.

ステップ115(S115)において、タブレット端末4は、内蔵カメラによる動画像の撮影を開始する。
ステップ120(S120)において、タブレット端末4は、時刻タイマを参照して、業務時間内であるか否かを判断し、業務時間内である場合に、S125の処理に移行し、業務時間外である場合に、動画像の撮影を終了して、カメラ制御処理(S10)を完了する。
In step 115 (S115), the tablet terminal 4 starts capturing a moving image with the built-in camera.
In step 120 (S120), the tablet terminal 4 refers to the time timer, determines whether it is during business hours, and if it is during business hours, the tablet terminal 4 shifts to the processing of S125 and is outside business hours. In some cases, the shooting of the moving image is ended, and the camera control process (S10) is completed.

ステップ125(S125)において、タブレット端末4は、撮影された動画像データの中から、フレームを抽出する。
ステップ130(S130)において、タブレット端末4は、抽出されたフレームを生産性評価装置2に送信して、S120の処理に戻る。
In step 125 (S125), the tablet terminal 4 extracts a frame from the captured moving image data.
In step 130 (S130), the tablet terminal 4 transmits the extracted frame to the productivity evaluation device 2, and returns to the process of S120.

図7は、生産性評価装置2による動線可視化処理(S20)を説明するフローチャートである。
図7に例示するように、ステップ200(S200)において、生産性評価装置2は、電源が投入されるまで待機し(S200:No)、電源が投入されると、S205の処理に移行する。
FIG. 7 is a flowchart illustrating the flow line visualization processing (S20) by the productivity evaluation device 2.
As illustrated in FIG. 7, in step 200 (S200), the productivity evaluation apparatus 2 waits until the power is turned on (S200: No), and when the power is turned on, the process proceeds to step S205.

ステップ205(S205)において、生産性評価装置2は、業務時間内であるか否かを判断し、業務時間内である場合に、S210の処理に移行し、業務時間外である場合に、動線可視化処理(S20)を完了する。 In step 205 (S205), the productivity evaluation apparatus 2 determines whether it is during business hours, and if it is during business hours, shifts to the processing of S210, and if it is outside business hours, the productivity evaluation apparatus 2 moves. The line visualization processing (S20) is completed.

ステップ210(S210)において、生産性評価装置2の画像取得部220(図4)は、タブレット端末4から、撮影された動画像のフレームデータを受信し、撮影画像DB260に登録する。
ステップ215(S215)において、画像取得部220は、撮影画像DB260から、処理対象となるフレームを読み出す。
ステップ220(S220)において、骨格検出部222は、画像取得部220により読み出されたフレームの中から、人体の骨格を抽出する。
In step 210 (S210), the image acquisition unit 220 (FIG. 4) of the productivity evaluation device 2 receives the frame data of the captured moving image from the tablet terminal 4 and registers it in the captured image DB 260.
In step 215 (S215), the image acquisition unit 220 reads out a frame to be processed from the captured image DB 260.
In step 220 (S220), the skeleton detection unit 222 extracts the skeleton of the human body from the frames read by the image acquisition unit 220.

ステップ225(S225)において、骨格座標抽出部224は、骨格検出部222により検出された骨格の中から、注目部位(首)の座標を抽出する。抽出される座標は、撮影された画像上の座標である。
ステップ230(S230)において、評価部230は、骨格座標抽出部224により抽出された座標を、動線分析グラフに追加登録する。動線分析グラフは、撮影された画像内(すなわり、製造工場内)における人の分布(累積滞在時間又は累積滞在人数)を示すグラフである。複数のフレームにわたって、同一の領域に作業員が存在する場合には、作業員の滞在時間が算出できる。
なお、評価部230は、上記のように作成された動線分析グラフと、予め設定された作業領域902(図2)とを比較して、各製造設備900の稼働率を評価するための評価値を算出する。
In step 225 (S225), the skeleton coordinate extraction unit 224 extracts the coordinates of the part of interest (neck) from the skeleton detected by the skeleton detection unit 222. The extracted coordinates are the coordinates on the captured image.
In step 230 (S230), the evaluation unit 230 additionally registers the coordinates extracted by the skeleton coordinate extraction unit 224 in the flow line analysis graph. The flow line analysis graph is a graph showing the distribution of people (cumulative stay time or cumulative number of stayers) in the captured image (that is, in the manufacturing plant). When a worker exists in the same region over a plurality of frames, the worker's stay time can be calculated.
The evaluation unit 230 compares the flow line analysis graph created as described above with a preset work area 902 (FIG. 2) to evaluate the operation rate of each manufacturing facility 900. Calculate the value.

以上説明したように、本実施形態の生産性評価システム1によれば、製造工場9内で撮影された画像に基づいて、作業員の滞在場所及び滞在時間を算出し、製造設備900の稼働率を評価する評価値とする。これにより、ネットワーク接続等が困難な製造設備900であっても、その稼働率を評価することができる。さらに、稼働率を検知するためのセンサや、検知結果を送信するための通信機器を製造設備900毎に設置する必要がないため、比較的低コストで、製造設備900の稼働率を評価することができる。
また、本例の生産性評価システム1によれば、作業員が記載した業務報告から記載事項を抽出し、評価部230による評価結果と対比可能に表示する。これにより、作業員の主観的な評価結果と、撮影画像に基づく客観的な評価結果とを比較して、生産性向上のための対策を検討することができる。さらに、本例の生産性評価システム1によれば、撮影画像DB260に登録されている動画像データと、業務報告DB270に登録されている記載事項とを関連付けることができ、例えば、特定の製品製造時の動画情報をより簡単に見つけることができる。
As described above, according to the productivity evaluation system 1 of the present embodiment, the staying place and the staying time of the worker are calculated based on the image taken in the manufacturing factory 9, and the operating rate of the manufacturing facility 900 is calculated. Is used as the evaluation value. As a result, even if the manufacturing facility 900 is difficult to connect to the network, the operating rate of the manufacturing facility 900 can be evaluated. Furthermore, since it is not necessary to install a sensor for detecting the operating rate and a communication device for transmitting the detection result for each manufacturing facility 900, it is possible to evaluate the operating rate of the manufacturing facility 900 at a relatively low cost. You can
Further, according to the productivity evaluation system 1 of this example, items to be described are extracted from the work report described by the worker and displayed in a manner that can be compared with the evaluation result by the evaluation unit 230. Accordingly, the subjective evaluation result of the worker and the objective evaluation result based on the captured image can be compared to study a measure for improving productivity. Furthermore, according to the productivity evaluation system 1 of this example, the moving image data registered in the captured image DB 260 and the description items registered in the work report DB 270 can be associated with each other. You can find the video information of time more easily.

[変形例1]
次に、上記実施形態の変形例を説明する。
図11は、変形例1における生産性評価システム1の機能構成を例示する図である。なお、本図に記載された各構成のうち、図4に記載された構成と実質的に同一のものには、同一の符号が付されている。
図11に例示するように、変形例1では、タブレット端末4でカメラ側プログラム43が動作し、生産性評価装置2で生産性評価プログラム23が動作する。
カメラ側プログラム43は、画像取得部420、骨格検出部422、骨格座標抽出部424、及び特徴量送信部426を有する。
生産性評価プログラム23は、記載抽出部226、関連付け部228、評価部230、及び表示部240を有する。
[Modification 1]
Next, a modified example of the above embodiment will be described.
FIG. 11 is a diagram illustrating a functional configuration of the productivity evaluation system 1 in the first modification. It should be noted that, of the components shown in this figure, those substantially the same as the components shown in FIG. 4 are designated by the same reference numerals.
As illustrated in FIG. 11, in the first modification, the camera side program 43 operates on the tablet terminal 4 and the productivity evaluation program 23 operates on the productivity evaluation apparatus 2.
The camera-side program 43 includes an image acquisition unit 420, a skeleton detection unit 422, a skeleton coordinate extraction unit 424, and a feature amount transmission unit 426.
The productivity evaluation program 23 has a description extraction unit 226, an association unit 228, an evaluation unit 230, and a display unit 240.

カメラ側プログラム43において、画像取得部420は、タブレット端末4の内蔵カメラにより撮影された画像データを取得する。
骨格検出部422は、画像取得部420により取得された画像データの中から、人の骨格に相当する画像を検出する。
骨格座標抽出部424は、骨格検出部422により検出された骨格の画像から、首に相当する骨格画像の座標を抽出する。
特徴量送信部426は、骨格座標抽出部424により抽出された座標を生産性評価装置2に送信する。
このように、変形例1におけるタブレット端末4は、製造工場9での撮影に加えて、骨格の検出、及び、注目部位の座標の抽出まで実施し、抽出された座標を生産性評価装置2に送信し、撮影された画像を送信しない。
In the camera side program 43, the image acquisition unit 420 acquires image data captured by the built-in camera of the tablet terminal 4.
The skeleton detection unit 422 detects an image corresponding to a human skeleton from the image data acquired by the image acquisition unit 420.
The skeleton coordinate extraction unit 424 extracts the coordinates of the skeleton image corresponding to the neck from the image of the skeleton detected by the skeleton detection unit 422.
The feature amount transmission unit 426 transmits the coordinates extracted by the skeleton coordinate extraction unit 424 to the productivity evaluation device 2.
As described above, the tablet terminal 4 according to the modified example 1 performs the detection of the skeleton and the extraction of the coordinates of the region of interest in addition to the imaging in the manufacturing factory 9, and the extracted coordinates are used by the productivity evaluation device 2. Send, do not send captured images.

図12は、変形例1におけるタブレット端末4のカメラ制御処理(S12)を説明するフローチャートである。なお、本図に示された各ステップのうち、図6に示されたステップと実質的に同一のものには、同一の符号が付されている。
図13は、変形例1における生産性評価装置2の動線可視化処理(S22)を説明するフローチャートである。なお、本図に示された各ステップのうち、図7に示されたステップと実質的に同一のものには、同一の符号が付されている。
FIG. 12 is a flowchart illustrating the camera control process (S12) of the tablet terminal 4 in the first modification. Note that among the steps shown in this figure, those substantially the same as the steps shown in FIG. 6 are given the same reference numerals.
FIG. 13 is a flowchart illustrating the flow line visualization processing (S22) of the productivity evaluation device 2 in the first modification. Note that among the steps shown in this figure, those substantially the same as the steps shown in FIG. 7 are given the same reference numerals.

図12に示すように、ステップ100からステップ120までの動作は、上記実施形態と同様である。なお、タブレット端末4で撮影された動画像データは、撮影画像DB460に登録され、画像取得部420により、順に読み出される。
ステップ140(S140)において、骨格検出部422は、画像取得部420により読み出されたフレームの中から、人体の骨格を抽出する。
ステップ145(S145)において、骨格座標抽出部424は、骨格検出部422により検出された骨格の中から、注目部位(首)の座標を抽出する。
ステップ150(S150)において、特徴量送信部426は、骨格座標抽出部424により抽出された座標を、生産性評価装置2に送信する。
ステップ155(S155)において、特徴量送信部426は、処理済みのフレームを撮影画像DB460から破棄する。
As shown in FIG. 12, the operation from step 100 to step 120 is the same as in the above embodiment. The moving image data captured by the tablet terminal 4 is registered in the captured image DB 460 and sequentially read by the image acquisition unit 420.
In step 140 (S140), the skeleton detection unit 422 extracts the skeleton of the human body from the frames read by the image acquisition unit 420.
In step 145 (S145), the skeleton coordinate extraction unit 424 extracts the coordinates of the part of interest (neck) from the skeleton detected by the skeleton detection unit 422.
In step 150 (S150), the feature amount transmission unit 426 transmits the coordinates extracted by the skeleton coordinate extraction unit 424 to the productivity evaluation device 2.
In step 155 (S155), the feature amount transmitting unit 426 discards the processed frame from the captured image DB 460.

図13に示すように、ステップ200からステップ205までは、上記実施形態と同様である。
ステップ210(S210)において、評価部230(図11)は、タブレット端末4から、注目部位(首)の座標を受信する。
ステップ240(S240)において、評価部230は、タブレット端末4から受信した座標を、動線分析グラフに追加登録する。
As shown in FIG. 13, steps 200 to 205 are the same as those in the above embodiment.
In step 210 (S210), the evaluation unit 230 (FIG. 11) receives the coordinates of the site of interest (neck) from the tablet terminal 4.
In step 240 (S240), the evaluation unit 230 additionally registers the coordinates received from the tablet terminal 4 in the flow line analysis graph.

このように、変形例1では、注目部位の座標の抽出までタブレット端末4側で実施し、撮影画像を破棄することにより、作業者のプライバシーが保護される。すなわち、ネットワーク7を介して送受信される情報は、注目部位の座標であり、作業者個人の特定には至らず、プライバシーが守られる。 As described above, in Modification 1, the extraction of the coordinates of the region of interest is performed on the tablet terminal 4 side and the captured image is discarded, whereby the privacy of the worker is protected. That is, the information transmitted/received via the network 7 is the coordinates of the region of interest, does not identify the individual worker, and privacy is protected.

[変形例2]
次に上記実施形態の変形例2を説明する。
変形例2では、タブレット端末4は、製造工場9を撮影することに加えて、内蔵されているマイクで、製造工場9で発生する音を録音する。また、タブレット端末4は、製造設備900に電力を供給するコンセント又は電力計(スマートメーター)と通信して、製造設備900により消費される電力を検知する。
変形例2の生産性評価装置2は、タブレット端末4により検知された音声、又は、消費電力に基づいて、撮影画像に基づく第1の評価値と異なる、第2の評価値を生成する。
[Modification 2]
Next, a modified example 2 of the above embodiment will be described.
In the second modification, the tablet terminal 4 records the sound generated in the manufacturing factory 9 with the built-in microphone in addition to photographing the manufacturing factory 9. Further, the tablet terminal 4 communicates with an outlet or a power meter (smart meter) that supplies power to the manufacturing facility 900 to detect the power consumed by the manufacturing facility 900.
The productivity evaluation device 2 of the modified example 2 generates a second evaluation value different from the first evaluation value based on the captured image based on the voice detected by the tablet terminal 4 or the power consumption.

図14は、変形例2における生産性評価装置2の機能構成を例示する図である。なお、本図に示された各構成のうち、図4に示された構成と実質的に同一のものには、同一の符号が付されている。
図14に例示するように、変形例の生産性評価プログラム24は、図4の生産性評価プログラム22に、第2評価部250を追加した構成をとる。
第2評価部250は、製造工場9における音声、又は、製造設備900により消費される電力に基づいて、製造設備の稼働率を評価するための第2の評価値を生成する。
本例の表示部240は、第2評価部250による評価結果を、評価部230により算出された滞在時間又は人数(第1の評価値)と対比可能に配置して表示する。
FIG. 14 is a diagram illustrating a functional configuration of the productivity evaluation device 2 in the second modification. It should be noted that, of the components shown in this figure, those substantially the same as the components shown in FIG. 4 are designated by the same reference numerals.
As illustrated in FIG. 14, the productivity evaluation program 24 of the modified example has a configuration in which a second evaluation unit 250 is added to the productivity evaluation program 22 of FIG.
The 2nd evaluation part 250 produces|generates the 2nd evaluation value for evaluating the operating rate of a manufacturing equipment based on the voice in the manufacturing factory 9, or the electric power consumed by the manufacturing equipment 900.
The display unit 240 of the present example displays the evaluation result by the second evaluation unit 250 so as to be comparable to the staying time or the number of people (first evaluation value) calculated by the evaluation unit 230.

図15(A)は、音声を利用する第2評価部250をより詳細に説明する図であり、図15(B)は、電力値を利用する第2評価部250をより詳細に説明する図である。
図15(A)に例示するように、音声を利用する第2評価部250は、録音制御部252、音源分離部254、装置判別部256、及び稼働率算出部258を有する。
録音制御部252は、タブレット端末4のマイクを制御して、製造工場9の内部で発生する音を録音させる。
音源分離部254は、録音制御部252による制御によって録音された音声データの中から、特定の音源の音声データを抽出する。例えば、音源分離部254は、音源分離技術に従って、周波数、又は、複数のマイクに対する到達時間等に基づいて、各音源の音声データを抽出する。
装置判別部256は、音源分離部254により抽出された各音声データに基づいて、音の発生源となる製造設備900を判別する。例えば、装置判別部256は、音声データに含まれる周波数に基づいて、ボール盤900Aに穴あけ加工音、レーザー加工機900Bによる加工音、及び、プレス加工機900Cによるプレス音を判別する。
稼働率算出部258は、装置判定部256による判別結果と、判別された音の継続時間とに基づいて、製造設備900の稼働率を算出し、第2評価値とする。
FIG. 15(A) is a diagram illustrating the second evaluation unit 250 that uses voice in more detail, and FIG. 15(B) is a diagram that illustrates the second evaluation unit 250 that uses a power value in more detail. Is.
As illustrated in FIG. 15A, the second evaluation unit 250 that uses voice includes a recording control unit 252, a sound source separation unit 254, a device determination unit 256, and an operation rate calculation unit 258.
The recording control unit 252 controls the microphone of the tablet terminal 4 to record the sound generated inside the manufacturing factory 9.
The sound source separation unit 254 extracts the sound data of a specific sound source from the sound data recorded under the control of the sound recording control unit 252. For example, the sound source separation unit 254 extracts the sound data of each sound source based on the frequency, the arrival time to a plurality of microphones, or the like according to the sound source separation technique.
The device discriminating unit 256 discriminates the manufacturing facility 900, which is a sound generation source, based on each audio data extracted by the sound source separating unit 254. For example, the device discrimination unit 256 discriminates the drilling sound of the drilling machine 900A, the processing sound of the laser processing machine 900B, and the pressing sound of the press processing machine 900C based on the frequency included in the audio data.
The operation rate calculation unit 258 calculates the operation rate of the manufacturing facility 900 based on the determination result by the device determination unit 256 and the determined duration of the sound, and sets it as the second evaluation value.

図15(B)に例示するように、電力値を利用する第2評価部250は、電力値取得部260及び稼働率算出部262を有する。
電力値取得部260は、製造設備900で消費される電力の値を取得する。例えば、電力値取得部260は、製造設備900に設置された電力センサと直接通信して、各製造設備900の消費電力を取得してもよいし、タブレット端末4を介して、各製造設備900の消費電力を取得してもよい。
稼働率算出部262は、電力値取得部260により取得された各製造設備900の消費電力に基づいて、製造設備900の稼働率を算出し、第2評価値とする。
As illustrated in FIG. 15B, the second evaluation unit 250 that uses the power value includes a power value acquisition unit 260 and an operating rate calculation unit 262.
The power value acquisition unit 260 acquires the value of the power consumed by the manufacturing facility 900. For example, the power value acquisition unit 260 may directly communicate with a power sensor installed in the manufacturing facility 900 to acquire the power consumption of each manufacturing facility 900, or via the tablet terminal 4, each manufacturing facility 900. Power consumption may be acquired.
The operating rate calculation unit 262 calculates the operating rate of the manufacturing facility 900 based on the power consumption of each manufacturing facility 900 acquired by the power value acquiring unit 260, and sets it as the second evaluation value.

変形例2の生産性評価装置2は、製造工場9で録音された音声データ、又は、製造設備900の消費電力に基づいて、製造設備900の稼働率を評価する第2評価値を算出し、算出された第2評価値と、撮影画像に基づいて生成された第1評価値とを比較可能な状態に並べて表示する。これにより、製造設備の利用効率等を評価できる。例えば、製造設備の調整やメンテナンス等に要する時間と、実稼働時間との比率が算出できる。 The productivity evaluation device 2 of the modified example 2 calculates a second evaluation value for evaluating the operating rate of the manufacturing equipment 900 based on the voice data recorded in the manufacturing factory 9 or the power consumption of the manufacturing equipment 900, The calculated second evaluation value and the first evaluation value generated based on the captured image are displayed side by side in a comparable state. This makes it possible to evaluate the utilization efficiency of manufacturing equipment. For example, the ratio of the time required for adjustment and maintenance of the manufacturing equipment to the actual operating time can be calculated.

[変形例3]
上記変形例2のさらなる変形例を説明する。
図16は、作業内容を比較する第2評価部250の構成を例示する図である。
図16に例示するように、変形例3の第2評価部250は、作業判定部270及び作業比較部272を有する。
作業判定部270は、骨格検出部222により検出された人の骨格画像に基づいて、人の作業内容を判定する。作業内容は、例えば、骨格画像が存在する作業領域、及び、骨格画像の形状をマッチングして判定される。
作業比較部272は、作業判定部270により判定された作業内容の通常の作業における骨格画像と、検出された骨格画像とを比較して、検出された骨格画像が、通常の作業といえるものであるか否かを判定する。通常の作業といえるものであるか否かは、例えば、各動作に要する時間、及び、作業動作の中に含まれる不要な動作の比率に基づいて判定される。
[Modification 3]
A further modification of Modification 2 will be described.
FIG. 16: is a figure which illustrates the structure of the 2nd evaluation part 250 which compares work content.
As illustrated in FIG. 16, the second evaluation unit 250 of Modification 3 includes a work determination unit 270 and a work comparison unit 272.
The work determination unit 270 determines the work content of a person based on the skeleton image of the person detected by the skeleton detection unit 222. The work content is determined, for example, by matching the work area in which the skeleton image exists and the shape of the skeleton image.
The work comparison unit 272 compares the skeleton image in the normal work of the work content determined by the work determination unit 270 with the detected skeleton image, and the detected skeleton image can be said to be a normal work. Determine if there is. Whether or not the work is a normal work is determined based on, for example, the time required for each motion and the ratio of unnecessary motions included in the work motion.

図17は、作業内容比較処理(S30)を説明するフローチャートである。
図17に示すように、ステップ300(S300)において、骨格検出部222(図14)は、タブレット端末4により撮影された画像の中から、人の骨格に相当する画像(骨格画像)を検出する。
ステップ305(S305)において、作業判定部270(図16)は、骨格検出部222により検出された骨格画像に基づいて、人の作業内容を判定する。
ステップ310(S310)において、作業比較部272は、作業判定部270により判定された作業内容の通常の作業における骨格画像と、検出された骨格画像とを比較して、検出された骨格画像が、通常の作業といえるものであるか否かを判定し、通常の作業といえるものであると判定された場合に、S315の処理に移行し、通常の作業といえるものではないと判定された場合に、S320の処理に移行する。
FIG. 17 is a flowchart illustrating the work content comparison process (S30).
As shown in FIG. 17, in step 300 (S300), the skeleton detection unit 222 (FIG. 14) detects an image (skeleton image) corresponding to a human skeleton from the images captured by the tablet terminal 4. ..
In step 305 (S305), the work determination unit 270 (FIG. 16) determines the work content of the person based on the skeleton image detected by the skeleton detection unit 222.
In step 310 (S310), the work comparing unit 272 compares the detected skeleton image with the skeleton image in the normal work having the work content determined by the work determining unit 270, and the detected skeleton image is When it is determined whether or not it can be called normal work, and when it is determined that it is normal work, the process proceeds to S315, and when it is determined that it is not normal work Then, the process proceeds to S320.

ステップ315(S315)において、第2評価部250は、正常な作業である旨の第2評価値を出力する。
ステップ320(S320)において、第2評価部250は、異常な作業である旨の第2評価値を出力する。
ステップ325(S325)において、第2評価部250は、異常な作業の継続時間を計時し、異常な作業の継続時間を第2評価値として出力する。
変形例3の表示部240は、異常な作業であると判定された場合に、その継続時間を、第1評価値と対比可能な状態に配置して表示する。
In step 315 (S315), the second evaluation unit 250 outputs the second evaluation value indicating that the work is normal.
In step 320 (S320), the second evaluation unit 250 outputs a second evaluation value indicating that the work is abnormal.
In step 325 (S325), the second evaluation unit 250 measures the duration of the abnormal work and outputs the duration of the abnormal work as the second evaluation value.
When it is determined that the work is abnormal, the display unit 240 according to the modification 3 arranges and displays the duration of the work in a state where it can be compared with the first evaluation value.

1…生産性評価システム
2…生産性評価装置
22,23,24…生産性評価プログラム
4…タブレット端末
1... Productivity evaluation system 2... Productivity evaluation device 22, 23, 24... Productivity evaluation program 4... Tablet terminal

Claims (9)

製造現場を撮影するために設置されたカメラと、
前記カメラにより撮影された画像の中から、人の位置を特定する位置特定部と、
前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部と
を有する生産性評価システム。
A camera installed to shoot the manufacturing site,
A position specifying unit that specifies the position of a person from the image taken by the camera,
A productivity evaluation system including: an evaluation unit configured to generate an evaluation value for evaluating an operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the person specified by the position specifying unit.
前記カメラにより撮影された画像の中から、人の特徴画像を抽出する人抽出部
をさらに有し、
前記位置特定部は、前記人抽出部により抽出された人の特徴画像の位置を特定し、
前記評価部は、前記製造設備の設置位置及び設置方向の少なくとも一方を基準として設定された領域に、人の特徴画像が存在するか否かを判定し、設定された領域に存在する人の数に基づいて、前記評価値を生成する
請求項1に記載の生産性評価システム。
Further comprising a person extraction unit for extracting a characteristic image of a person from the images taken by the camera,
The position specifying unit specifies the position of the characteristic image of the person extracted by the person extracting unit,
The evaluation unit determines whether or not a characteristic image of a person exists in the area set with reference to at least one of the installation position and the installation direction of the manufacturing facility, and determines the number of people existing in the set area. The productivity evaluation system according to claim 1, wherein the evaluation value is generated based on.
前記カメラは、時間的に連続する複数の静止画像、又は、動画像を撮影し、
前記評価部は、設定された領域に存在する人の滞在時間及び人数を前記評価値として算出する
請求項2に記載の生産性評価システム。
The camera captures a plurality of still images that are temporally continuous, or a moving image,
The productivity evaluation system according to claim 2, wherein the evaluation unit calculates the staying time and the number of people existing in the set area as the evaluation value.
前記カメラにより撮影されたいずれかの画像に対して、前記評価部により生成された評価値を示す評価値画像を重畳して表示する表示部
をさらに有する請求項3に記載の生産性評価システム。
The productivity evaluation system according to claim 3, further comprising: a display unit that superimposes and displays an evaluation value image indicating an evaluation value generated by the evaluation unit on any image captured by the camera.
前記製造現場における音声、又は、前記製造設備により消費される電力を検知する検知部と、
前記検知部により検知された音声又は電力に基づいて、前記製造設備の稼働率を評価するための第2の評価値を生成する第2評価部と、
前記評価部により算出された滞在時間又は人数と、前記第2評価部により生成された第2の評価値とを対比可能に配置して表示する表示部と
をさらに有する請求項3に記載の生産性評価システム。
A voice at the manufacturing site, or a detection unit that detects electric power consumed by the manufacturing facility,
A second evaluation unit that generates a second evaluation value for evaluating the operating rate of the manufacturing facility based on the voice or the power detected by the detection unit;
The production according to claim 3, further comprising: a display unit configured to display the staying time or the number of persons calculated by the evaluation unit and the second evaluation value generated by the second evaluation unit in a comparable manner. Sex evaluation system.
前記製造現場の作業者により記載された業務報告をスキャンするスキャナ装置と、
前記スキャナ装置によりスキャンされた業務報告から、記載事項を抽出する記載抽出部と、
時間軸に基づいて、前記記載抽出部により抽出された記載事項と、前記評価部により算出された滞在時間又は人数とを関連付けて表示する表示部と
をさらに有する請求項3に記載の生産性評価システム。
A scanner device that scans the business report described by the worker at the manufacturing site,
A description extraction unit that extracts description items from the business report scanned by the scanner device,
The productivity evaluation according to claim 3, further comprising: a display unit that displays, in association with each other, the description items extracted by the description extraction unit and the stay time or the number of people calculated by the evaluation unit based on a time axis. system.
製造現場に設置されたカメラにより撮影された画像の中から、人の位置を特定する位置特定部と、
前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部と
を有する生産性評価装置。
From the image taken by the camera installed at the manufacturing site, the position specifying unit that specifies the position of the person,
A productivity evaluation device having an evaluation unit for generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the person specified by the position specifying unit.
カメラが、製造現場を撮影するステップと、
コンピュータが、前記カメラにより撮影された画像の中から、人の位置を特定するステップと、
コンピュータが、特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップと
を有する生産性評価方法。
The camera shoots the manufacturing floor,
A computer specifying the position of a person from the images taken by the camera;
A computer generates an evaluation value for evaluating an operating rate of the manufacturing facility installed at the manufacturing site based on the position of the specified person.
製造現場を撮影するために設置されたカメラにより撮影された画像の中から、人の位置を特定するステップと、
特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップと
をコンピュータに実行させるプログラム。
From the image taken by the camera installed to shoot the manufacturing site, the step of specifying the position of the person,
And a step of generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the specified person.
JP2018235004A 2018-12-15 2018-12-15 Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program Pending JP2020095651A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235004A JP2020095651A (en) 2018-12-15 2018-12-15 Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235004A JP2020095651A (en) 2018-12-15 2018-12-15 Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program

Publications (1)

Publication Number Publication Date
JP2020095651A true JP2020095651A (en) 2020-06-18

Family

ID=71086271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235004A Pending JP2020095651A (en) 2018-12-15 2018-12-15 Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program

Country Status (1)

Country Link
JP (1) JP2020095651A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022157985A1 (en) * 2021-01-25 2022-07-28 三菱電機株式会社 Monitoring device and monitoring program
JP7351578B1 (en) * 2023-05-08 2023-09-27 株式会社P.O.イノベーション Productivity evaluation system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003649A (en) * 2010-06-21 2012-01-05 Kozo Keikaku Engineering Inc Work analysis apparatus, work analysis method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003649A (en) * 2010-06-21 2012-01-05 Kozo Keikaku Engineering Inc Work analysis apparatus, work analysis method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022157985A1 (en) * 2021-01-25 2022-07-28 三菱電機株式会社 Monitoring device and monitoring program
JPWO2022157985A1 (en) * 2021-01-25 2022-07-28
JP7351578B1 (en) * 2023-05-08 2023-09-27 株式会社P.O.イノベーション Productivity evaluation system

Similar Documents

Publication Publication Date Title
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US8159537B2 (en) Video surveillance equipment and video surveillance system
US9141184B2 (en) Person detection system
CN107438173A (en) Video process apparatus, method for processing video frequency and storage medium
CN110309801B (en) Video analysis method, device, system, storage medium and computer equipment
JP2004021495A (en) Monitoring system and monitoring method
JPWO2018198373A1 (en) Video surveillance system
WO2017212813A1 (en) Image search device, image search system, and image search method
JPH0795625A (en) System and method for measurement of viewing and listening
CN106572298A (en) Display control apparatus and display control method
JP2010113313A (en) Electronic advertisement apparatus, electronic advertisement method and program
CN108616718B (en) Monitoring display method, device and system
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
CN110199316A (en) The image processing method of camera and camera
CN110866450A (en) Parkinson disease monitoring method and device and storage medium
CN114894337B (en) Temperature measurement method and device for outdoor face recognition
JP2020095651A (en) Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program
JP4438443B2 (en) Image acquisition device and search device
JP4203279B2 (en) Attention determination device
JP6405606B2 (en) Image processing apparatus, image processing method, and image processing program
JP2011180917A (en) Image processing apparatus, content distribution system, image processing method, and program
CN114463779A (en) Smoking identification method, device, equipment and storage medium
CN109492585B (en) Living body detection method and electronic equipment
JP2015139001A (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221012