JP2020095651A - Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program - Google Patents
Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program Download PDFInfo
- Publication number
- JP2020095651A JP2020095651A JP2018235004A JP2018235004A JP2020095651A JP 2020095651 A JP2020095651 A JP 2020095651A JP 2018235004 A JP2018235004 A JP 2018235004A JP 2018235004 A JP2018235004 A JP 2018235004A JP 2020095651 A JP2020095651 A JP 2020095651A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- unit
- person
- manufacturing
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
Description
本発明は、生産性評価システム、生産性評価装置、生産性評価方法、及びプログラムに関する。 The present invention relates to a productivity evaluation system, a productivity evaluation device, a productivity evaluation method, and a program.
例えば、特許文献1には、繰り返しの動作が行われる作業に対する作業者の作業品質管理方法であって、過去の作業者の動線データ、当該作業対象品の過去の中間品質データ、当該作業対象品の過去の最終品質データから、前記動線データ及び前記中間品質データを入力とし、前記最終品質データを出力とする予測モデルを統計的に構築するモデル構築ステップ102と、撮像された画像データから、作業者の位置を認識する作業者位置認識ステップ104と、前記作業者位置認識ステップで認識した作業者位置を、前記モデル構築ステップで構築したモデルに代入し、対象の作業が正常であるか異常であるかを判定する作業者位置異常判定ステップ105と、を有する作業品質管理方法が開示されている。
For example, in
特許文献2には、測定対象の作業を実行する作業者について、複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、各時点での作業者の身体状態の情報を取得する検出情報取得部と、検出情報取得部で得た情報に基づき、作業者の作業に対する評価値を算出する評価値算出部と、編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの評価値に基づいて、前記複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行う出力制御部とを備える工程編成支援装置が開示されている。
特許文献3には、モニタ500に表示させたフレームから、ユーザにより追跡対象領域が選択されると、当該領域を追跡対象情報として取得し、追跡対象情報記憶部354に記憶し、追跡対象情報記憶部354に記憶された追跡対象情報、及び所定の追跡手法により生成した確率分布画像に基づき、追跡対象物体を追跡し、追跡結果データを追跡結果データ記憶部356に記憶し、追跡結果データ記憶部356に記憶された追跡結果データのフレーム毎に色情報を関連付け、時間的に1つ前に位置するフレームの中心座標から、その次のフレームの中心座標に線を引き、この処理を追跡結果データが取得できなくなるまで、繰り返し実行する軌跡描画システムが開示されている。
In
比較的安価な導入コストで、製造設備の稼働率を評価する生産性評価システムを提供することを目的とする。 It is an object of the present invention to provide a productivity evaluation system that evaluates the operating rate of manufacturing equipment at a relatively low introduction cost.
本発明に係る生産性評価システムは、製造現場を撮影するために設置されたカメラと、前記カメラにより撮影された画像の中から、人の位置を特定する位置特定部と、前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部とを有する。 The productivity evaluation system according to the present invention includes a camera installed to photograph a manufacturing site, a position specifying unit that specifies a position of a person from an image taken by the camera, and the position specifying unit. And an evaluation unit that generates an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the specified position of the person.
好適には、前記カメラにより撮影された画像の中から、人の特徴画像を抽出する人抽出部をさらに有し、前記位置特定部は、前記人抽出部により抽出された人の特徴画像の位置を特定し、前記評価部は、前記製造設備の設置位置及び設置方向の少なくとも一方を基準として設定された領域に、人の特徴画像が存在するか否かを判定し、設定された領域に存在する人の数に基づいて、前記評価値を生成する。 Suitably, it further has a person extraction unit that extracts a characteristic image of a person from the images taken by the camera, and the position specifying unit is a position of the characteristic image of the person extracted by the person extraction unit. The evaluation unit determines whether or not a characteristic image of a person exists in the area set based on at least one of the installation position and the installation direction of the manufacturing facility, and exists in the set area. The evaluation value is generated based on the number of people who perform the evaluation.
好適には、前記カメラは、時間的に連続する複数の静止画像、又は、動画像を撮影し、前記評価部は、設定された領域に存在する人の滞在時間及び人数を前記評価値として算出する。 Preferably, the camera captures a plurality of still images or moving images that are temporally continuous, and the evaluation unit calculates the staying time and the number of people existing in the set area as the evaluation value. To do.
好適には、前記カメラにより撮影されたいずれかの画像に対して、前記評価部により生成された評価値を示す評価値画像を重畳して表示する表示部をさらに有する。 Suitably, it further has a display part which superimposes and displays the evaluation value image which shows the evaluation value generated by the above-mentioned evaluation part on one of the pictures picturized by the above-mentioned camera.
好適には、前記製造現場における音声、又は、前記製造設備により消費される電力を検知する検知部と、前記検知部により検知された音声又は電力に基づいて、前記製造設備の稼働率を評価するための第2の評価値を生成する第2評価部と、前記評価部により算出された滞在時間又は人数と、前記第2評価部により生成された第2の評価値とを対比可能に配置して表示する表示部とをさらに有する。 Preferably, the operating rate of the manufacturing facility is evaluated based on the voice at the manufacturing site or the detection unit that detects the power consumed by the manufacturing facility, and the voice or the power detected by the detection unit. A second evaluation unit for generating a second evaluation value for the purpose, a staying time or the number of people calculated by the evaluation unit, and a second evaluation value generated by the second evaluation unit are arranged so that they can be compared with each other. And a display unit for displaying the information.
好適には、前記製造現場の作業者により記載された業務報告をスキャンするスキャナ装置と、前記スキャナ装置によりスキャンされた業務報告から、記載事項を抽出する記載抽出部と、時間軸に基づいて、前記記載抽出部により抽出された記載事項と、前記評価部により算出された滞在時間又は人数とを関連付けて表示する表示部とをさらに有する。 Preferably, a scanner device that scans the business report described by the worker at the manufacturing site, a business report scanned by the scanner device, a description extraction unit that extracts the description items, and based on the time axis, The description further includes a display unit that displays the description items extracted by the description extraction unit and the stay time or the number of persons calculated by the evaluation unit in association with each other.
また、本発明に係る生産性評価装置は、製造現場に設置されたカメラにより撮影された画像の中から、人の位置を特定する位置特定部と、前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部とを有する。 Further, the productivity evaluation apparatus according to the present invention is a position specifying unit that specifies a position of a person from among images taken by a camera installed at a manufacturing site, and a position of the person specified by the position specifying unit. And an evaluation unit that generates an evaluation value for evaluating the operating rate of the manufacturing facility installed at the manufacturing site.
また、本発明に係る生産性評価方法は、カメラが、製造現場を撮影するステップと、コンピュータが、前記カメラにより撮影された画像の中から、人の位置を特定するステップと、コンピュータが、特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップとを有する。 Further, in the productivity evaluation method according to the present invention, a camera takes a picture of a manufacturing site, a computer specifies a position of a person from an image taken by the camera, and a computer specifies Generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the person who has performed the operation.
また、本発明に係るプログラムは、製造現場を撮影するために設置されたカメラにより撮影された画像の中から、人の位置を特定するステップと、特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップとをコンピュータに実行させる。 Further, the program according to the present invention is based on the step of identifying the position of a person from the images captured by the camera installed to capture the production site, and the manufacturing based on the identified position of the person. And a step of generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the site.
比較的安価な導入コストで、製造設備の稼働率を評価できる。 The operating rate of manufacturing equipment can be evaluated at a relatively low introduction cost.
以下、本発明の実施形態を、図面を参照して説明する。
図1は、生産性評価システム1の全体構成を例示する図である。
図1に例示するように、生産性評価システム1は、生産性評価装置2と、タブレット端末4とを有し、これらがネットワーク7を介して互いに接続している。また、生産性評価装置2には、スキャナ装置3が接続されている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating an overall configuration of the
As illustrated in FIG. 1, the
生産性評価装置2は、本発明に係る生産性評価装置の一例であり、生産性評価プログラム22(後述)が動作するコンピュータ端末である。本例では、スタンドアロンのコンピュータ端末である生産性評価装置2を具体例として説明するが、これに限定されるものではなく、例えば、クラウド上の仮想マシン等であってもよい。
本例の生産性評価装置2は、タブレット端末4により撮影された画像に基づいて、製造設備900(後述)の稼働率を評価するための評価情報を生成し、生成された評価情報を表示する。
スキャナ装置3は、製造現場の作業者により記載された業務報告をスキャンする。
The
The
The
タブレット端末4は、カメラが内蔵されたコンピュータ端末であり、本発明に係るカメラの一例である。タブレット端末4は、製造設備900が設置された製造現場を内蔵カメラで撮影し、撮影された画像データを生産性評価装置2に送信する。例えば、タブレット端末4は、製造工場に設置された複数の製造設備900を撮影可能な位置に設置され、時間的に連続する複数の静止画像、又は、動画像を撮影する。本例のタブレット端末4は、製造工場9の全体を撮影可能な位置に設置され、動画像を撮影し、撮影された動画データを生産性評価装置2に送信する。
The
図2は、製造工場9に設置された製造設備900と、人の作業領域902とを例示する図である。
図2に例示するように、製造設備900には、例えば、ボール盤900A、レーザー加工機900B、及び、プレス加工機900Cなどが含まれる。これらの製造設備900それぞれには、その設置位置及び設置方向(設置されている向き)を基準として、作業者が作業するであろう作業領域902が定義されている。
本例のタブレット端末4は、少なくとも作業領域902が撮影可能な位置に設置され、生産性評価装置2は、タブレット端末4により撮影された画像に基づいて、作業領域902に存在する作業者の人数及び滞在時間を算出し、算出された人数及び滞在時間に基づいて、製造設備900の稼働率を評価するための評価情報を生成する。
製造設備900の中には、ボール盤900A等のように、アナログな機器が存在し、ネットワーク接続できない。そこで、本例の生産性評価システム1では、作業領域902における作業者の人数及び滞在時間から、間接的に、製造設備900の稼働率が評価される。
さらに、本例の生産性評価システム1では、製造設備900の作業領域902に加え、作業者の動線となる通路、及び、資材置き場910等も撮影され、これらの場所における作業者の滞在時間も算出することにより、製造のボトルネックとなっている工程を抽出でき、製造工場9全体の生産性を評価することができる。
FIG. 2 is a diagram illustrating a manufacturing facility 900 installed in the manufacturing factory 9 and a work area 902 for a person.
As illustrated in FIG. 2, the manufacturing facility 900 includes, for example, a drilling machine 900A, a laser processing machine 900B, and a press processing machine 900C. In each of these manufacturing facilities 900, a work area 902 in which a worker will work is defined based on the installation position and installation direction (installation direction).
The
There is an analog device such as a drilling machine 900A in the manufacturing facility 900, and network connection is not possible. Therefore, in the
Further, in the
図3は、生産性評価装置2のハードウェア構成を例示する図である。
図3に例示するように、生産性評価装置2は、CPU200、メモリ202、HDD204、ネットワークインタフェース206(ネットワークIF206)、表示装置208、及び入力装置210を有し、これらの構成はバス212を介して互いに接続している。
CPU200は、例えば、中央演算装置である。
メモリ202は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD204は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図4の生産性評価プログラム22)やその他のデータファイルを格納する。
ネットワークIF206は、有線又は無線で通信するためのインタフェースである。
表示装置208は、例えば、液晶ディスプレイである。
入力装置210は、例えば、キーボード及びマウスである。
FIG. 3 is a diagram illustrating a hardware configuration of the
As illustrated in FIG. 3, the
The
The
The
The network IF 206 is an interface for wired or wireless communication.
The
The
図4は、生産性評価装置2の機能構成を例示する図である。
図4に例示するように、生産性評価装置2には、生産性評価プログラム22がインストールされ、撮影画像データベース260(撮影画像DB260)、業務報告データベース270(業務報告DB270)、及び評価結果データベース280(評価結果DB280)が構成されている。生産性評価プログラム22は、例えば、CD−ROM等の記録媒体に格納されており、この記録媒体を介して、生産性評価装置2にインストールされる。
なお、生産性評価プログラム22の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。また、これらのプログラム全てが一台のコンピュータ端末にインストールされてもよいし、クラウド上の仮想マシンにインストールされてもよい。
FIG. 4 is a diagram illustrating a functional configuration of the
As illustrated in FIG. 4, the productivity evaluation program 22 is installed in the
Note that part or all of the productivity evaluation program 22 may be realized by hardware such as an ASIC, or may be realized by partially borrowing a function of an OS (Operating System). Further, all of these programs may be installed in one computer terminal or may be installed in a virtual machine on the cloud.
生産性評価プログラム22は、画像取得部220、骨格検出部222、骨格座標抽出部224、記載抽出部226、関連付け部228、評価部230、及び表示部240を有する。
生産性評価プログラム22において、画像取得部220は、製造現場で撮影された画像データを取得する。本例の画像取得部220は、タブレット端末4により撮影された動画像データを、タブレット端末4から受信し、受信した動画像データを撮影日時に関連付けて撮影画像DB260に登録する。
The productivity evaluation program 22 has an
In the productivity evaluation program 22, the
骨格検出部222は、画像取得部220により取得された画像データの中から、人の骨格に相当する画像を検出する。なお、骨格検出部222は、本発明に係る人抽出部の一例であり、人の骨格に相当する画像の代わりに、人の顔を人の特徴画像として検出してもよい。
The
骨格座標抽出部224は、骨格検出部222により検出された人の骨格画像の座標を、人の位置情報として抽出する。本例の骨格座標抽出部224は、人の首の部分の座標を抽出する。なお、骨格座標抽出部224は、本発明に係る位置特定部の一例である。
The skeleton coordinate
記載抽出部226は、スキャナ装置3によりスキャンされた業務報告から、記載事項を抽出する。例えば、記載抽出部226は、業務報告の書式定義に従って、スキャンされた業務報告から、作業内容と作業の実施日時とを抽出する。本例の記載抽出部226は、スキャンされた業務報告から、作業内容と作業の実施日時とを抽出し、抽出された作業内容と実施日時とを互いに関連付けて業務報告DB270に登録する。
The
関連付け部228は、時間軸に基づいて、記載抽出部226により抽出された記載事項と、評価部230による評価結果とを関連付ける。例えば、関連付け部228は、日報に記載された作業内容及び実施日時と、評価部230により算出された各作業領域902の滞在時間又は滞在人数とを比較して、互いに関連付ける。
The associating
評価部230は、骨格座標抽出部224により抽出された座標に基づいて、製造設備900の稼働率を評価するための評価値を生成する。例えば、評価部230は、製造設備900の設置位置及び設置方向を基準として設定された作業領域902それぞれに、人の骨格座標が存在するか否かを判定し、設定された作業領域902それぞれに存在する人の数を時間帯毎にカウントし、カウントされた人数に基づいて、製造設備900の稼働率を評価するための評価値を生成し、評価結果DB280に登録する。登録される評価値は、例えば、各作業領域902における滞在人数そのものであってもよいし、全作業員の数で正規化された滞在人数等であってもよい。
The
より具体的には、図5に例示するように、評価部230は、人数算出部232及び動線可視化部234を含む。人数算出部232は、作業領域902それぞれに、人の骨格座標が存在するか否かを判定し、設定された作業領域902それぞれに存在する人の数を時間帯毎にカウントし、各時間帯の滞在人数を評価値として出力する。本例の人数算出部232は、図8に例示するように、各製造設備900の作業領域902における、単位時間当たりの滞在人数を表すグラフを生成する。図8のグラフでは、横軸が時間帯であり、縦軸が単位時間当たりの滞在人数である。本例では、各製造設備900の作業領域における単位時間当たりの作業員の滞在人数が、製造設備900の稼働率の指標となっている。
More specifically, as illustrated in FIG. 5, the
動線可視化部234は、骨格座標抽出部224により抽出された座標に基づいて、製造現場における人の動線を可視化した画像を生成する。本例の動線可視化部234は、図10に例示するように、製造工場9内の各領域における作業員の滞在時間を色で示すヒートマップを生成する。図10のヒートマップでは、製造工場9内の各領域(作業領域、通路、及び、資材置き場910等を含む)における、作業員の滞在人数又は滞在時間が色で表されており、作業員の動線、及び、主な滞在箇所が可視化されている。
The flow
表示部240は、タブレット端末4により撮影されたいずれかの画像に対して、評価部230により生成された評価値を示す評価値画像を重畳して表示する。評価値画像は、例えば、各領域に滞在する人数又は滞在時間を色や模様等で表す画像である。本例の表示部240は、動線可視化部234により生成されたヒートマップを、タブレット端末4で撮影された画像に重畳して表示する。
The
また、表示部240は、関連付け部228により関連付けられた記載事項と、評価部230により算出された滞在時間又は人数とを互いに関連付けて表示する。本例の表示部240は、図9に例示するように、評価部230により算出された各作業領域902の滞在時間(すなわち、製造設備900の稼働率)と、記載抽出部226により抽出された業務報告の記載事項(業務報告の解析結果)とを互いに関連付けて表示する。図9における業務報告の解析結果は、業務報告の記載事項から、各作業員の作業内容を特定し、特定された作業内容の所要時間を算出したものである。製造設備900の稼働率と、作業の所要時間との相関の有無によって、工場レイアウトや設備増設等の効率化を検討することができる。
In addition, the
図6は、タブレット端末4によるカメラ制御処理(S10)を説明するフローチャートである。
図6に例示するように、ステップ100(S100)において、タブレット端末4は、電源が投入されるまで待機し(S100:No)、電源が投入されると、S105の処理に移行する。
FIG. 6 is a flowchart illustrating the camera control process (S10) by the
As illustrated in FIG. 6, in step 100 (S100), the
ステップ105(S105)において、タブレット端末4は、時刻タイマを開始する。
ステップ110(S110)において、タブレット端末4は、内蔵のカメラを初期化する。
In step 105 (S105), the
In step 110 (S110), the
ステップ115(S115)において、タブレット端末4は、内蔵カメラによる動画像の撮影を開始する。
ステップ120(S120)において、タブレット端末4は、時刻タイマを参照して、業務時間内であるか否かを判断し、業務時間内である場合に、S125の処理に移行し、業務時間外である場合に、動画像の撮影を終了して、カメラ制御処理(S10)を完了する。
In step 115 (S115), the
In step 120 (S120), the
ステップ125(S125)において、タブレット端末4は、撮影された動画像データの中から、フレームを抽出する。
ステップ130(S130)において、タブレット端末4は、抽出されたフレームを生産性評価装置2に送信して、S120の処理に戻る。
In step 125 (S125), the
In step 130 (S130), the
図7は、生産性評価装置2による動線可視化処理(S20)を説明するフローチャートである。
図7に例示するように、ステップ200(S200)において、生産性評価装置2は、電源が投入されるまで待機し(S200:No)、電源が投入されると、S205の処理に移行する。
FIG. 7 is a flowchart illustrating the flow line visualization processing (S20) by the
As illustrated in FIG. 7, in step 200 (S200), the
ステップ205(S205)において、生産性評価装置2は、業務時間内であるか否かを判断し、業務時間内である場合に、S210の処理に移行し、業務時間外である場合に、動線可視化処理(S20)を完了する。
In step 205 (S205), the
ステップ210(S210)において、生産性評価装置2の画像取得部220(図4)は、タブレット端末4から、撮影された動画像のフレームデータを受信し、撮影画像DB260に登録する。
ステップ215(S215)において、画像取得部220は、撮影画像DB260から、処理対象となるフレームを読み出す。
ステップ220(S220)において、骨格検出部222は、画像取得部220により読み出されたフレームの中から、人体の骨格を抽出する。
In step 210 (S210), the image acquisition unit 220 (FIG. 4) of the
In step 215 (S215), the
In step 220 (S220), the
ステップ225(S225)において、骨格座標抽出部224は、骨格検出部222により検出された骨格の中から、注目部位(首)の座標を抽出する。抽出される座標は、撮影された画像上の座標である。
ステップ230(S230)において、評価部230は、骨格座標抽出部224により抽出された座標を、動線分析グラフに追加登録する。動線分析グラフは、撮影された画像内(すなわり、製造工場内)における人の分布(累積滞在時間又は累積滞在人数)を示すグラフである。複数のフレームにわたって、同一の領域に作業員が存在する場合には、作業員の滞在時間が算出できる。
なお、評価部230は、上記のように作成された動線分析グラフと、予め設定された作業領域902(図2)とを比較して、各製造設備900の稼働率を評価するための評価値を算出する。
In step 225 (S225), the skeleton coordinate
In step 230 (S230), the
The
以上説明したように、本実施形態の生産性評価システム1によれば、製造工場9内で撮影された画像に基づいて、作業員の滞在場所及び滞在時間を算出し、製造設備900の稼働率を評価する評価値とする。これにより、ネットワーク接続等が困難な製造設備900であっても、その稼働率を評価することができる。さらに、稼働率を検知するためのセンサや、検知結果を送信するための通信機器を製造設備900毎に設置する必要がないため、比較的低コストで、製造設備900の稼働率を評価することができる。
また、本例の生産性評価システム1によれば、作業員が記載した業務報告から記載事項を抽出し、評価部230による評価結果と対比可能に表示する。これにより、作業員の主観的な評価結果と、撮影画像に基づく客観的な評価結果とを比較して、生産性向上のための対策を検討することができる。さらに、本例の生産性評価システム1によれば、撮影画像DB260に登録されている動画像データと、業務報告DB270に登録されている記載事項とを関連付けることができ、例えば、特定の製品製造時の動画情報をより簡単に見つけることができる。
As described above, according to the
Further, according to the
[変形例1]
次に、上記実施形態の変形例を説明する。
図11は、変形例1における生産性評価システム1の機能構成を例示する図である。なお、本図に記載された各構成のうち、図4に記載された構成と実質的に同一のものには、同一の符号が付されている。
図11に例示するように、変形例1では、タブレット端末4でカメラ側プログラム43が動作し、生産性評価装置2で生産性評価プログラム23が動作する。
カメラ側プログラム43は、画像取得部420、骨格検出部422、骨格座標抽出部424、及び特徴量送信部426を有する。
生産性評価プログラム23は、記載抽出部226、関連付け部228、評価部230、及び表示部240を有する。
[Modification 1]
Next, a modified example of the above embodiment will be described.
FIG. 11 is a diagram illustrating a functional configuration of the
As illustrated in FIG. 11, in the first modification, the camera side program 43 operates on the
The camera-side program 43 includes an
The productivity evaluation program 23 has a
カメラ側プログラム43において、画像取得部420は、タブレット端末4の内蔵カメラにより撮影された画像データを取得する。
骨格検出部422は、画像取得部420により取得された画像データの中から、人の骨格に相当する画像を検出する。
骨格座標抽出部424は、骨格検出部422により検出された骨格の画像から、首に相当する骨格画像の座標を抽出する。
特徴量送信部426は、骨格座標抽出部424により抽出された座標を生産性評価装置2に送信する。
このように、変形例1におけるタブレット端末4は、製造工場9での撮影に加えて、骨格の検出、及び、注目部位の座標の抽出まで実施し、抽出された座標を生産性評価装置2に送信し、撮影された画像を送信しない。
In the camera side program 43, the
The
The skeleton coordinate
The feature
As described above, the
図12は、変形例1におけるタブレット端末4のカメラ制御処理(S12)を説明するフローチャートである。なお、本図に示された各ステップのうち、図6に示されたステップと実質的に同一のものには、同一の符号が付されている。
図13は、変形例1における生産性評価装置2の動線可視化処理(S22)を説明するフローチャートである。なお、本図に示された各ステップのうち、図7に示されたステップと実質的に同一のものには、同一の符号が付されている。
FIG. 12 is a flowchart illustrating the camera control process (S12) of the
FIG. 13 is a flowchart illustrating the flow line visualization processing (S22) of the
図12に示すように、ステップ100からステップ120までの動作は、上記実施形態と同様である。なお、タブレット端末4で撮影された動画像データは、撮影画像DB460に登録され、画像取得部420により、順に読み出される。
ステップ140(S140)において、骨格検出部422は、画像取得部420により読み出されたフレームの中から、人体の骨格を抽出する。
ステップ145(S145)において、骨格座標抽出部424は、骨格検出部422により検出された骨格の中から、注目部位(首)の座標を抽出する。
ステップ150(S150)において、特徴量送信部426は、骨格座標抽出部424により抽出された座標を、生産性評価装置2に送信する。
ステップ155(S155)において、特徴量送信部426は、処理済みのフレームを撮影画像DB460から破棄する。
As shown in FIG. 12, the operation from step 100 to step 120 is the same as in the above embodiment. The moving image data captured by the
In step 140 (S140), the
In step 145 (S145), the skeleton coordinate
In step 150 (S150), the feature
In step 155 (S155), the feature
図13に示すように、ステップ200からステップ205までは、上記実施形態と同様である。
ステップ210(S210)において、評価部230(図11)は、タブレット端末4から、注目部位(首)の座標を受信する。
ステップ240(S240)において、評価部230は、タブレット端末4から受信した座標を、動線分析グラフに追加登録する。
As shown in FIG. 13,
In step 210 (S210), the evaluation unit 230 (FIG. 11) receives the coordinates of the site of interest (neck) from the
In step 240 (S240), the
このように、変形例1では、注目部位の座標の抽出までタブレット端末4側で実施し、撮影画像を破棄することにより、作業者のプライバシーが保護される。すなわち、ネットワーク7を介して送受信される情報は、注目部位の座標であり、作業者個人の特定には至らず、プライバシーが守られる。
As described above, in
[変形例2]
次に上記実施形態の変形例2を説明する。
変形例2では、タブレット端末4は、製造工場9を撮影することに加えて、内蔵されているマイクで、製造工場9で発生する音を録音する。また、タブレット端末4は、製造設備900に電力を供給するコンセント又は電力計(スマートメーター)と通信して、製造設備900により消費される電力を検知する。
変形例2の生産性評価装置2は、タブレット端末4により検知された音声、又は、消費電力に基づいて、撮影画像に基づく第1の評価値と異なる、第2の評価値を生成する。
[Modification 2]
Next, a modified example 2 of the above embodiment will be described.
In the second modification, the
The
図14は、変形例2における生産性評価装置2の機能構成を例示する図である。なお、本図に示された各構成のうち、図4に示された構成と実質的に同一のものには、同一の符号が付されている。
図14に例示するように、変形例の生産性評価プログラム24は、図4の生産性評価プログラム22に、第2評価部250を追加した構成をとる。
第2評価部250は、製造工場9における音声、又は、製造設備900により消費される電力に基づいて、製造設備の稼働率を評価するための第2の評価値を生成する。
本例の表示部240は、第2評価部250による評価結果を、評価部230により算出された滞在時間又は人数(第1の評価値)と対比可能に配置して表示する。
FIG. 14 is a diagram illustrating a functional configuration of the
As illustrated in FIG. 14, the productivity evaluation program 24 of the modified example has a configuration in which a
The
The
図15(A)は、音声を利用する第2評価部250をより詳細に説明する図であり、図15(B)は、電力値を利用する第2評価部250をより詳細に説明する図である。
図15(A)に例示するように、音声を利用する第2評価部250は、録音制御部252、音源分離部254、装置判別部256、及び稼働率算出部258を有する。
録音制御部252は、タブレット端末4のマイクを制御して、製造工場9の内部で発生する音を録音させる。
音源分離部254は、録音制御部252による制御によって録音された音声データの中から、特定の音源の音声データを抽出する。例えば、音源分離部254は、音源分離技術に従って、周波数、又は、複数のマイクに対する到達時間等に基づいて、各音源の音声データを抽出する。
装置判別部256は、音源分離部254により抽出された各音声データに基づいて、音の発生源となる製造設備900を判別する。例えば、装置判別部256は、音声データに含まれる周波数に基づいて、ボール盤900Aに穴あけ加工音、レーザー加工機900Bによる加工音、及び、プレス加工機900Cによるプレス音を判別する。
稼働率算出部258は、装置判定部256による判別結果と、判別された音の継続時間とに基づいて、製造設備900の稼働率を算出し、第2評価値とする。
FIG. 15(A) is a diagram illustrating the
As illustrated in FIG. 15A, the
The
The sound
The
The operation
図15(B)に例示するように、電力値を利用する第2評価部250は、電力値取得部260及び稼働率算出部262を有する。
電力値取得部260は、製造設備900で消費される電力の値を取得する。例えば、電力値取得部260は、製造設備900に設置された電力センサと直接通信して、各製造設備900の消費電力を取得してもよいし、タブレット端末4を介して、各製造設備900の消費電力を取得してもよい。
稼働率算出部262は、電力値取得部260により取得された各製造設備900の消費電力に基づいて、製造設備900の稼働率を算出し、第2評価値とする。
As illustrated in FIG. 15B, the
The power
The operating
変形例2の生産性評価装置2は、製造工場9で録音された音声データ、又は、製造設備900の消費電力に基づいて、製造設備900の稼働率を評価する第2評価値を算出し、算出された第2評価値と、撮影画像に基づいて生成された第1評価値とを比較可能な状態に並べて表示する。これにより、製造設備の利用効率等を評価できる。例えば、製造設備の調整やメンテナンス等に要する時間と、実稼働時間との比率が算出できる。
The
[変形例3]
上記変形例2のさらなる変形例を説明する。
図16は、作業内容を比較する第2評価部250の構成を例示する図である。
図16に例示するように、変形例3の第2評価部250は、作業判定部270及び作業比較部272を有する。
作業判定部270は、骨格検出部222により検出された人の骨格画像に基づいて、人の作業内容を判定する。作業内容は、例えば、骨格画像が存在する作業領域、及び、骨格画像の形状をマッチングして判定される。
作業比較部272は、作業判定部270により判定された作業内容の通常の作業における骨格画像と、検出された骨格画像とを比較して、検出された骨格画像が、通常の作業といえるものであるか否かを判定する。通常の作業といえるものであるか否かは、例えば、各動作に要する時間、及び、作業動作の中に含まれる不要な動作の比率に基づいて判定される。
[Modification 3]
A further modification of
FIG. 16: is a figure which illustrates the structure of the
As illustrated in FIG. 16, the
The
The
図17は、作業内容比較処理(S30)を説明するフローチャートである。
図17に示すように、ステップ300(S300)において、骨格検出部222(図14)は、タブレット端末4により撮影された画像の中から、人の骨格に相当する画像(骨格画像)を検出する。
ステップ305(S305)において、作業判定部270(図16)は、骨格検出部222により検出された骨格画像に基づいて、人の作業内容を判定する。
ステップ310(S310)において、作業比較部272は、作業判定部270により判定された作業内容の通常の作業における骨格画像と、検出された骨格画像とを比較して、検出された骨格画像が、通常の作業といえるものであるか否かを判定し、通常の作業といえるものであると判定された場合に、S315の処理に移行し、通常の作業といえるものではないと判定された場合に、S320の処理に移行する。
FIG. 17 is a flowchart illustrating the work content comparison process (S30).
As shown in FIG. 17, in step 300 (S300), the skeleton detection unit 222 (FIG. 14) detects an image (skeleton image) corresponding to a human skeleton from the images captured by the
In step 305 (S305), the work determination unit 270 (FIG. 16) determines the work content of the person based on the skeleton image detected by the
In step 310 (S310), the
ステップ315(S315)において、第2評価部250は、正常な作業である旨の第2評価値を出力する。
ステップ320(S320)において、第2評価部250は、異常な作業である旨の第2評価値を出力する。
ステップ325(S325)において、第2評価部250は、異常な作業の継続時間を計時し、異常な作業の継続時間を第2評価値として出力する。
変形例3の表示部240は、異常な作業であると判定された場合に、その継続時間を、第1評価値と対比可能な状態に配置して表示する。
In step 315 (S315), the
In step 320 (S320), the
In step 325 (S325), the
When it is determined that the work is abnormal, the
1…生産性評価システム
2…生産性評価装置
22,23,24…生産性評価プログラム
4…タブレット端末
1...
Claims (9)
前記カメラにより撮影された画像の中から、人の位置を特定する位置特定部と、
前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部と
を有する生産性評価システム。 A camera installed to shoot the manufacturing site,
A position specifying unit that specifies the position of a person from the image taken by the camera,
A productivity evaluation system including: an evaluation unit configured to generate an evaluation value for evaluating an operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the person specified by the position specifying unit.
をさらに有し、
前記位置特定部は、前記人抽出部により抽出された人の特徴画像の位置を特定し、
前記評価部は、前記製造設備の設置位置及び設置方向の少なくとも一方を基準として設定された領域に、人の特徴画像が存在するか否かを判定し、設定された領域に存在する人の数に基づいて、前記評価値を生成する
請求項1に記載の生産性評価システム。 Further comprising a person extraction unit for extracting a characteristic image of a person from the images taken by the camera,
The position specifying unit specifies the position of the characteristic image of the person extracted by the person extracting unit,
The evaluation unit determines whether or not a characteristic image of a person exists in the area set with reference to at least one of the installation position and the installation direction of the manufacturing facility, and determines the number of people existing in the set area. The productivity evaluation system according to claim 1, wherein the evaluation value is generated based on.
前記評価部は、設定された領域に存在する人の滞在時間及び人数を前記評価値として算出する
請求項2に記載の生産性評価システム。 The camera captures a plurality of still images that are temporally continuous, or a moving image,
The productivity evaluation system according to claim 2, wherein the evaluation unit calculates the staying time and the number of people existing in the set area as the evaluation value.
をさらに有する請求項3に記載の生産性評価システム。 The productivity evaluation system according to claim 3, further comprising: a display unit that superimposes and displays an evaluation value image indicating an evaluation value generated by the evaluation unit on any image captured by the camera.
前記検知部により検知された音声又は電力に基づいて、前記製造設備の稼働率を評価するための第2の評価値を生成する第2評価部と、
前記評価部により算出された滞在時間又は人数と、前記第2評価部により生成された第2の評価値とを対比可能に配置して表示する表示部と
をさらに有する請求項3に記載の生産性評価システム。 A voice at the manufacturing site, or a detection unit that detects electric power consumed by the manufacturing facility,
A second evaluation unit that generates a second evaluation value for evaluating the operating rate of the manufacturing facility based on the voice or the power detected by the detection unit;
The production according to claim 3, further comprising: a display unit configured to display the staying time or the number of persons calculated by the evaluation unit and the second evaluation value generated by the second evaluation unit in a comparable manner. Sex evaluation system.
前記スキャナ装置によりスキャンされた業務報告から、記載事項を抽出する記載抽出部と、
時間軸に基づいて、前記記載抽出部により抽出された記載事項と、前記評価部により算出された滞在時間又は人数とを関連付けて表示する表示部と
をさらに有する請求項3に記載の生産性評価システム。 A scanner device that scans the business report described by the worker at the manufacturing site,
A description extraction unit that extracts description items from the business report scanned by the scanner device,
The productivity evaluation according to claim 3, further comprising: a display unit that displays, in association with each other, the description items extracted by the description extraction unit and the stay time or the number of people calculated by the evaluation unit based on a time axis. system.
前記位置特定部により特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成する評価部と
を有する生産性評価装置。 From the image taken by the camera installed at the manufacturing site, the position specifying unit that specifies the position of the person,
A productivity evaluation device having an evaluation unit for generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the person specified by the position specifying unit.
コンピュータが、前記カメラにより撮影された画像の中から、人の位置を特定するステップと、
コンピュータが、特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップと
を有する生産性評価方法。 The camera shoots the manufacturing floor,
A computer specifying the position of a person from the images taken by the camera;
A computer generates an evaluation value for evaluating an operating rate of the manufacturing facility installed at the manufacturing site based on the position of the specified person.
特定された人の位置に基づいて、前記製造現場に設置された製造設備の稼働率を評価するための評価値を生成するステップと
をコンピュータに実行させるプログラム。 From the image taken by the camera installed to shoot the manufacturing site, the step of specifying the position of the person,
And a step of generating an evaluation value for evaluating the operating rate of the manufacturing equipment installed at the manufacturing site based on the position of the specified person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018235004A JP2020095651A (en) | 2018-12-15 | 2018-12-15 | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018235004A JP2020095651A (en) | 2018-12-15 | 2018-12-15 | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020095651A true JP2020095651A (en) | 2020-06-18 |
Family
ID=71086271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018235004A Pending JP2020095651A (en) | 2018-12-15 | 2018-12-15 | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020095651A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022157985A1 (en) * | 2021-01-25 | 2022-07-28 | 三菱電機株式会社 | Monitoring device and monitoring program |
JP7351578B1 (en) * | 2023-05-08 | 2023-09-27 | 株式会社P.O.イノベーション | Productivity evaluation system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003649A (en) * | 2010-06-21 | 2012-01-05 | Kozo Keikaku Engineering Inc | Work analysis apparatus, work analysis method and program |
-
2018
- 2018-12-15 JP JP2018235004A patent/JP2020095651A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003649A (en) * | 2010-06-21 | 2012-01-05 | Kozo Keikaku Engineering Inc | Work analysis apparatus, work analysis method and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022157985A1 (en) * | 2021-01-25 | 2022-07-28 | 三菱電機株式会社 | Monitoring device and monitoring program |
JPWO2022157985A1 (en) * | 2021-01-25 | 2022-07-28 | ||
JP7351578B1 (en) * | 2023-05-08 | 2023-09-27 | 株式会社P.O.イノベーション | Productivity evaluation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6534499B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
US8159537B2 (en) | Video surveillance equipment and video surveillance system | |
US9141184B2 (en) | Person detection system | |
CN107438173A (en) | Video process apparatus, method for processing video frequency and storage medium | |
CN110309801B (en) | Video analysis method, device, system, storage medium and computer equipment | |
JP2004021495A (en) | Monitoring system and monitoring method | |
JPWO2018198373A1 (en) | Video surveillance system | |
WO2017212813A1 (en) | Image search device, image search system, and image search method | |
JPH0795625A (en) | System and method for measurement of viewing and listening | |
CN106572298A (en) | Display control apparatus and display control method | |
JP2010113313A (en) | Electronic advertisement apparatus, electronic advertisement method and program | |
CN108616718B (en) | Monitoring display method, device and system | |
RU2713876C1 (en) | Method and system for detecting alarm events when interacting with self-service device | |
JP6503079B2 (en) | Specific person detection system, specific person detection method and detection device | |
CN110199316A (en) | The image processing method of camera and camera | |
CN110866450A (en) | Parkinson disease monitoring method and device and storage medium | |
CN114894337B (en) | Temperature measurement method and device for outdoor face recognition | |
JP2020095651A (en) | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program | |
JP4438443B2 (en) | Image acquisition device and search device | |
JP4203279B2 (en) | Attention determination device | |
JP6405606B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2011180917A (en) | Image processing apparatus, content distribution system, image processing method, and program | |
CN114463779A (en) | Smoking identification method, device, equipment and storage medium | |
CN109492585B (en) | Living body detection method and electronic equipment | |
JP2015139001A (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221012 |