JP6613343B1 - 判定装置および判定方法 - Google Patents

判定装置および判定方法 Download PDF

Info

Publication number
JP6613343B1
JP6613343B1 JP2018145315A JP2018145315A JP6613343B1 JP 6613343 B1 JP6613343 B1 JP 6613343B1 JP 2018145315 A JP2018145315 A JP 2018145315A JP 2018145315 A JP2018145315 A JP 2018145315A JP 6613343 B1 JP6613343 B1 JP 6613343B1
Authority
JP
Japan
Prior art keywords
scene
moving image
learned model
predetermined operation
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145315A
Other languages
English (en)
Other versions
JP2020021323A (ja
Inventor
大塚 誠
誠 大塚
弘司 椎崎
弘司 椎崎
門地 正史
正史 門地
明石拓也
拓也 明石
昭伍 南
昭伍 南
中島 慎
慎 中島
貴大 萩野
貴大 萩野
佑輔 竹内
佑輔 竹内
健次 中山
健次 中山
南望 大西
南望 大西
遼介 別府
遼介 別府
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2018145315A priority Critical patent/JP6613343B1/ja
Application granted granted Critical
Publication of JP6613343B1 publication Critical patent/JP6613343B1/ja
Publication of JP2020021323A publication Critical patent/JP2020021323A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Forklifts And Lifting Vehicles (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】不適切な操作が行われたシーンを検出する。【解決手段】判定装置(1)は、フォークリフト(3)の作業の様子を撮影した動画像から所定の操作のシーンを検出するシーン検出部(103)と、所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルに上記シーンを入力して得た結果に基づいて、所定の操作が適切か判定する操作適否判定部(104)とを備えている。【選択図】図1

Description

本発明は、搬送対象物を搬送する搬送車両に対して作業者が行う操作の適否を判定する判定装置等に関する。
フォークリフトなどの搬送車両を操作して行う作業においては、作業の適否が作業者の操作に依存するため、作業者の操作が適切に行われなかったことを検出する技術が求められており、そのような技術の開発も進められている。例えば、下記特許文献1には、作業者が誤った載置部からピッキングを行ったことを検出する技術が記載されている。
特開2011−73876号公報
上述の従来技術はピッキング対象の取り違えを防ぐ技術であり、従来、作業の様子を撮影した動画像から不適切な操作が行われたシーンを検出する技術は存在しなかった。しかし、近時、作業現場における人的負担を軽減しつつ、新人などの未熟作業者の作業のチェックや、指導、育成等を行いたいというニーズが高まっている。そのため、作業の様子を撮影した動画像から不適切な操作が行われたシーンを検出する技術が求められている。
本発明の一態様は、作業の様子を撮影した動画像から不適切な操作が行われたシーンを検出することができる判定装置等を実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る判定装置は、搬送対象物を搬送する搬送車両を操作して行う作業の様子を撮影した動画像から上記搬送車両に対して所定の操作が行われているシーンを検出するシーン検出部と、上記所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルに対して、上記シーン検出部が検出した上記シーンを入力して得られる結果に基づいて、当該シーンにおいて行われた上記所定の操作が適切か否かを判定する操作適否判定部と、を備えている。
また、上記の課題を解決するために、本発明の一態様に係る判定方法は、判定装置による判定方法であって、搬送対象物を搬送する搬送車両を操作して行う作業の様子を撮影した動画像から上記搬送車両に対して所定の操作が行われているシーンを検出するシーン検出ステップと、上記所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルに対して、上記シーン検出ステップで検出した上記シーンを入力して得られる結果に基づいて、当該シーンにおいて行われた上記所定の操作が適切か否かを判定する操作適否判定ステップと、を含む。
本発明の一態様によれば、作業の様子を撮影した動画像から不適切な操作が行われたシーンを検出することができる。
本発明の実施形態1に係る判定装置の要部構成の一例を示すブロック図である。 上記判定装置を含む判定システムの概要を示す図である。 フォークリフトを作業者が操作して前進させている様子を示す図である。 ドライブレコーダのカメラにより作業者およびフォークリフトを撮影して得た画像の例を示す図である。 作業者の目線で撮影された画像の例を示す図である。 上記判定装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態2に係る判定システムの概要を示す図である。
〔実施形態1〕
(システム概要)
本実施形態の判定システムの概要を図2に基づいて説明する。図2は、判定システム100の概要を示す図である。判定システム100は、搬送対象物を搬送する搬送車両を作業者が操作して行う作業において、搬送車両に対する操作が適切に行われたか否かを判定するシステムである。
図2に示す判定システム100は、上記の判定を行う判定装置1と、作業の様子を撮影する撮影装置2と、搬送車両の一例であるフォークリフト3とを含む。なお、図2では、搬送車両の例としてフォークリフト3を記載しているが、判定システム100に含まれる搬送車両は、作業者の操作に従って搬送対象物を搬送する車両であればよく、フォークリフト3に限られない。
図2の例では、作業者Aがフォークリフト3を操作しており、その様子を撮影装置2が動画像で撮影している。撮影装置2は、フォークリフト3による一連の作業を定点で撮影できるような位置に配置しておけばよい。撮影装置2が撮影した動画像は判定装置1に送信され、判定装置1はこの動画像から、所定の操作が行われているシーンを検出する。そして、判定装置1は、検出した上記シーンにおいて、フォークリフト3に対する上記所定の操作が適切に行われたか否かを判定する。
そして、判定装置1は、操作が適切に行われなかったと判定した場合には、作業者Aにその旨を通知する。図2の例では、フォークリフト3を介して通知を行っている。つまり、フォークリフト3は、判定装置1と通信する機能と、作業者Aに情報を通知する機能とを備えている。情報の通知態様は表示による通知であってもよいし、音声による通知であってもよいし、それらの併用であってもよい。
このように、判定システム100によれば、判定装置1が不適切な操作が行われたシーンを検出することができる。そして、作業者Aに通知することによって、操作が適切に行われなかったシーンを作業者Aに認識させることができるので、作業者Aに当該シーンにおける操作を改善させることができる。
(判定装置の要部構成)
判定装置1の要部構成について図1に基づいて説明する。図1は、判定装置1の要部構成の一例を示すブロック図である。図示のように、判定装置1は、判定装置1の各部を統括して制御する制御部10と、判定装置1が使用する各種データを記憶する記憶部20を備えている。さらに、判定装置1は、判定装置1に対する入力操作を受け付ける入力部30と、判定装置1が情報を出力するための出力部40と、判定装置1が他の装置と通信するための通信部50とを備えている。
また、制御部10には、動画像取得部101、学習済みモデル102、シーン検出部103、操作適否判定部104、および通知部105が含まれている。そして、記憶部20には、動画像201が記憶されている。動画像201は、図2に基づいて説明したように、撮影装置2によりフォークリフト3の作業の様子を撮影することにより生成されたものである。判定装置1は、有線または無線の通信により撮影装置2から取得した動画像を動画像201として記憶部20に記憶しておく。
動画像取得部101は、動画像を取得して学習済みモデル102に対する入力データを生成する。本実施形態の動画像取得部101は、記憶部20に記憶されている動画像201を取得する。入力データに用いる動画像は、学習済みモデル102の機械学習用の教師データに用いた動画像と同様の撮影条件で、フォークリフト3とその作業者Aを撮影したものであることが好ましい。上記撮影条件には、例えば、撮影装置2と、フォークリフト3および作業者Aとの位置関係、フォークリフト3と作業者Aの背景、および周囲の明るさ等が含まれる。撮影条件を揃えるため、例えば一連の作業が行われる様子が画角に入る位置に固定された撮影装置2によって撮影した動画像から教師データを生成し、同じ撮影装置2によって撮影した動画像を入力データとすることが好ましい。なお、入力データの生成については後述する。
学習済みモデル102は、所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルである。動画像取得部101が生成した入力データを学習済みモデル102に入力すると、学習済みモデル102は、入力された動画像を複数のシーンに分類すると共に、該分類の確度を示す情報(本実施形態では確率値)を出力する。学習済みモデル102としては、例えば、CNN(Convolutional Neural Network)とRNN(Recurrent Neural Network)、あるいはCNNとLSTM(Long Short-Term Memory)を組み合わせた学習済みモデルを用いることが好ましい。RNNやLSTMのような時系列データの扱いに適したモデルと、画像認識性能の高いCNNとを組み合わせることにより、動画像の分類を高精度に行うことができる。
シーン検出部103は、フォークリフト3を操作して行う作業の様子を撮影した動画像からフォークリフト3に対して所定の操作が行われているシーンを検出する。詳細は後述するが、シーン検出部103は、学習済みモデル102が出力する確率値に基づいて、学習済みモデル102に入力された入力データに係るシーンが、機械学習済みのシーンの何れに該当するかを検出する。
操作適否判定部104は、学習済みモデル102に対して、シーン検出部103が検出したシーンを入力して得られる結果に基づいて、当該シーンにおいて行われた作業者Aの所定の操作が適切か否かを判定する。具体的には、操作適否判定部104は、学習済みモデル102の出力データから、作業者Aの操作手順の適否と、操作内容の適否とを判定する。なお、「操作内容」には、フォークリフト3が受け付けた操作内容(前進、後退、リフトの昇降等)のみならず、操作における作業者Aの任意の所作および姿勢が含まれる。また、本実施形態の操作適否判定部104は、操作手順の適否と、操作内容の適否とを判定するが、これらの判定をそれぞれ別のブロックで行うようにしてもよい。また、操作適否判定部104は、操作手順の適否と、操作内容の適否の何れか一方のみを判定してもよい。
通知部105は、作業者Aの操作が適切に行われなかったことを通知する。具体的には、通知部105は、通信部50を介してフォークリフト3と通信し、作業者Aの操作が適切に行われなかったことをフォークリフト3に通知させる。なお、通知先はフォークリフト3に限られない。例えば、通知部105は、作業者Aの所持する端末装置に通知してもよいし、作業者Aの作業を管理する管理者の端末装置に通知してもよい。
(学習済みモデルの生成)
本実施形態の学習済みモデル102は、所定の操作が適切に行われたか否かの判定を行うことができるように、教師ありの機械学習により生成された学習済みモデルである。以下では、学習済みモデル102の生成について説明する。
学習済みモデル102の生成には、教師データとして、所定の操作が適切に行われたシーンを撮影した動画像を用いることができる。また、本実施形態の学習済みモデル102は、動画像からのシーン検出にも利用される。このため、教師データとして、フォークリフト3による一連の作業を複数のシーンに分けて、各シーンに固有のラベルを付した動画像を用いる。
例えば、フォークリフト3による荷物の荷役作業を判定装置1の判定対象とする場合、荷役作業が適切に行われた様子を撮影した動画像を用いて教師データを生成することができる。具体的には、まず、動画像を複数のシーンに分けて、各シーンに固有のラベルを付与する。各シーンには、作業者Aが所定の操作を行う様子が写っていればよい。例えば、「フォークリフト3を荷物に接近させる」シーン、「フォーク(爪)の高さを調整する」シーン、「フォークをフォークポケットに差し込む」シーン等のそれぞれにラベルを付与してもよい。ラベル付与の対象とするシーンは任意であるが、特に、フォークリフト3を適切に操作できる作業者(例えばベテラン作業者)と、不適切な操作を行いがちな作業者(例えば新人作業者)とで操作内容に差が生じやすいシーンはラベル付与しておくことが好ましい。
ラベルが付与された動画像は、荷役作業が適切に行われた様子を撮影したものであるから、ラベル付与された各シーンは、そのシーンにおける適切な操作を示すものとなる。複数の動画像を用いてこのような教師データをそれぞれ生成し、生成した教師データを用いて機械学習を行うことにより学習済みモデル102を生成することができる。
(シーン検出について)
学習済みモデル102の出力を用いたシーン検出について説明する。上記のような機械学習により生成した学習済みモデル102に動画像を入力することにより、入力された動画像に写るシーンが、ラベル付与された各シーンに該当する確率がそれぞれ出力される。シーン検出部103は、この確率の値に基づいて撮影された動画像から所定のシーンを検出する。
具体的には、記憶部20に記憶されている動画像201は、撮影が進むにつれて更新されてより長時間の動画像となるので、動画像取得部101は、学習済みモデル102に入力する動画像201の範囲を撮影の進行に合わせて変更する。例えば、動画像取得部101は、撮影開始時刻tから時刻tまでの範囲の動画像201を学習済みモデル102に入力した後、撮影時間が所定時間Δtだけ進行したときに時刻tから時刻t+Δtまでの動画像201を学習済みモデル102に入力してもよい。このように、所定時間ずつ範囲を増やすことにより、各範囲における各ラベルの確率の値が学習済みモデル102から出力される。
そして、シーン検出部103は、学習済みモデル102から出力される各シーンの確率のうち値が最大のシーンが、学習済みモデル102に入力された動画像201に写るシーンであると判定する。また、シーン検出部103は、そのシーンに該当する確率が最大となる動画像201の範囲を、そのシーンが写る範囲であると検出する。
例えば、一連の作業を撮影した動画像201のうち、時刻tからtに撮影された範囲に、フォークリフト3を荷物に接近させる操作が撮影されていたとする。この場合、学習済みモデル102に入力する動画像201の範囲が時刻tからtに近付くにつれて、「フォークリフトを荷物に接近させる」シーンである確率は大きくなり、その確率は、全シーン中で最大の値となる。そして、学習済みモデル102に入力する動画像201の範囲の末尾がtを超えると、「フォークリフトを荷物に接近させる」シーンである確率は下がり始める。
よって、シーン検出部103は、動画像201のうち開始時刻が何れもtであり、終了時刻が所定時間ずつ長くなる範囲をそれぞれ学習済みモデル102に入力して得られる出力に基づいて、「フォークリフトを荷物に接近させる」シーンを検出することができる。また、シーン検出部103は、同様にして他のシーンも検出することができる。
(操作適否判定について)
フォークリフト3を用いた作業においては操作手順が決まっているから、正しい手順で作業が行われた場合、所定の順序で所定のシーンが検出される。このため、操作適否判定部104は、シーン検出部103の検出結果から、正しい手順で作業が行われているか判定する。なお、正しい手順(シーンの正しい検出順)は、例えば学習済みモデル102の教師データを生成する際に特定することができる。
例えば、正しい手順が「荷物をフォークで引き出し」、「フォークを手前側に傾け」、「搬送する」という手順であったとする。この場合に、「荷物をフォークで引き出す」シーンが検出された直後に「搬送する」シーンが検出されたときには、操作適否判定部104は、誤った手順である(フォークを傾ける操作が抜けている)と判定する。
また、操作適否判定部104は、手順が正しいと判定した場合、操作内容が適切か否かについても判定する。これについて図3に基づいて説明する。図3は、フォークリフト3を作業者Aが操作して前進させている様子を示す図である。図3のような画像は、例えばフォークリフト3による作業が行われる位置(積み降ろしの対象となる荷物の付近など)が画角に入るように位置固定された撮影装置2によって撮影することができる。
一般的な立ち乗りのフォークリフト3を前進させる操作を行う場合、図3の(a)に示すように、作業者Aはフォークリフト3の正面方向(フォークが延びている方向)に対して、身体を斜めに向けることが好ましい。図3の(b)に示すような、作業者Aの身体がフォークリフト3の正面方向を向き、作業者Aが操作レバーに正対した状態での操作は、図3の(a)の状態での操作と比べて方向転換や後進が行いにくく、作業者Aを疲労させやすいためである。このため、上述の教師データには、図3の(a)のような姿勢で作業が行われた動画像を用いる。
ここで、図3の(a)のような姿勢で作業が行われた動画像を教師データとして機械学習した学習済みモデル102に対し、正しい姿勢でフォークリフト3を前進させる操作を行った様子を撮影した動画像を入力した場合、学習済みモデル102の出力する確率の値は高くなる。一方、図3の(b)のような姿勢でフォークリフト3を前進させる操作を行った様子を撮影した動画像を入力した場合、学習済みモデル102の出力する確率の値はより低い値となる。
このように、学習済みモデル102の出力する確率の値の高低は、操作内容の適否を反映したものとなる。よって、操作適否判定部104は、学習済みモデル102の出力する確率に基づいて操作内容が適切な否かを判定することができる。具体的には、操作適否判定部104は、シーン検出部103が検出したシーンの確率の値が閾値以上であれば操作内容が適切であると判定し、閾値未満であれば操作内容は不適であると判定する。
(画像の他の例)
図3には、フォークリフト3を側方から見た様子を示したが、教師データおよび学習済みモデル102への入力に用いる動画像は、作業の様子が認識できるようなものであればよく、フォークリフト3の側方から撮影したものに限られない。例えば、図4や図5に示すような画像を教師データおよび学習済みモデル102への入力に用いてもよい。
図4は、ドライブレコーダのカメラにより作業者Aおよびフォークリフト3を撮影して得た動画像から切り出したフレーム画像の例を示している。この画像は、フォークリフト3に搭載されたドライブレコーダのカメラにより作業者Aおよびフォークリフト3を直上から撮影したものであるから、作業者Aの手元の動きや顔の向き等が認識しやすい。また、ドライブレコーダの画像を流用しているため、判定装置1が必要な動画像を取得するための撮影装置(例えば図2の撮影装置2のようなもの)を設ける必要がなく、フォークリフト3がどこに移動しても撮影が継続できるという利点もある。
図5は、作業者Aの目線で撮影された動画像から切り出したフレーム画像の例を示している。図5の(a)では、フォークリフト3のフォークが下降位置にあり、フォークの先端が画像中央よりもやや下方に位置している。また、図5の(b)では、フォークリフト3のフォークが上昇位置にあり、フォークの先端は図5の(a)と同様に画像中央よりもやや下方に位置している。
そして、図5の(c)は、パレットPのフォークポケットにフォークを差し込む様子を撮影した画像である。なお、パレットPは、荷物を格納・運搬するための荷台である。また、フォークポケットは、フォークの挿入孔である。図5の(c)では、フォークの位置合わせのためにフォークリフト3が照射したレーザ光がパレットPに投影された線Lが現れている。そして、線Lは、画像中央よりもやや下方に位置している。また、図5の(c)では、フォークを真後ろからではなく、斜め後方から見ている。
以上のように、作業者Aの目線で撮影された動画像からは、作業者Aがどこを注視しているかを認識することができる。よって、作業者Aの目線で撮影された動画像を用いる場合、操作時に正しい位置を注視しているか否かを判定することができる。図5のような作業者目線の画像は、例えば作業者Aの頭部にカメラを固定することによって撮影することができる。また、眼鏡型のウェアラブル機器を作業者Aに装着させて撮影することもできる。
(処理の流れ)
判定装置1が実行する処理の流れを図6に基づいて説明する。図6は、判定装置1が実行する処理(判定方法)の一例を示すフローチャートである。なお、図2の例のように、撮影装置2が撮影した、作業者Aがフォークリフト3を操作する様子を撮影した動画像は判定装置1に送信され、記憶部20に動画像201として記録される。
S1では、動画像取得部101が、上記のようにして記憶部20に記録された動画像201の取得を開始する。そして、S2では、動画像取得部101が、S1で取得開始した動画像201を学習済みモデル102に入力し、学習済みモデル102は入力された動画像201が各シーンに該当する確率を出力する。
S3(シーン検出ステップ)では、シーン検出部103が、学習済みモデル102の出力値に基づいてシーン検出を行う。なお、シーン検出の方法については上記「シーン検出について」で説明したとおりであるからここでは説明を繰り返さない。また、以下のS4、S5の詳細についても上記「操作適否判定について」で説明したとおりであるからここでは説明を繰り返さない。
S4(操作適否判定ステップ)では、操作適否判定部104は、作業者Aの操作手順が適切であるか否かを判定する。ここで、操作適否判定部104が、操作手順が適切であると判定した場合(S4でYES)、処理はS5に進む。一方、操作適否判定部104が、操作手順が適切ではないと判定した場合(S4でNO)、処理はS6に進む。
S5(操作適否判定ステップ)では、操作適否判定部104は、作業者Aの操作内容が適切であるか否かを判定する。ここで、操作適否判定部104が、操作内容が適切であると判定した場合(S5でYES)、処理はS7に進む。一方、操作適否判定部104が、操作内容が適切ではないと判定した場合(S5でNO)、処理はS6に進む。
S6では、通知部105が、作業者Aへの通知を行う。具体的には、通知部105は、通信部50を介してフォークリフト3に命令を送信し、操作手順または操作内容が適切ではなかったことを作業者Aに通知させる。なお、通知部105は、S4でNOと判定されていた場合には操作手順が誤りであったことを作業者Aに通知させ、S5でNOと判定されていた場合には操作内容が誤りであったことを作業者Aに通知させる。フォークリフト3による報知の態様は特に限定されず、例えばフォークリフト3がスピーカ等の出力装置を備えている場合にはその出力装置により報知してもよい。また、例えば、例えばフォークリフト3が表示装置を備えている場合にはその表示装置により報知してもよい。
また、通知部105は、フォークリフト3が表示装置を備えている場合には、S3で検出されたシーンについて、正しい操作が行われたときの動画像(例えば教師データに用いた動画像)をフォークリフト3に送信して、上記表示装置に表示させてもよい。さらに、通知部105は、作業者Aの操作の様子を撮影した動画像を、正しい操作が行われたときの上記動画像と共に表示させてもよい。これにより、作業者Aは、自身の操作内容と、正しい操作内容とを一目で対比することができるので、改善すべきポイントを容易に認識することができる。また、この場合、作業者Aが改善すべきポイントである、作業者Aの操作内容と正しい操作内容との相違点を、画像上で強調表示してもよい。
S7では、シーン検出部103が、作業者Aの操作が終了したか否かを判定する。具体的には、シーン検出部103は、1つの作業を構成する一連のシーンの全てを検出していれば操作が終了したと判定し、未検出のシーンがあれば操作は終了していないと判定する。ここで、シーン検出部103が操作は終了したと判定した場合(S7でYES)には、図示の処理は終了する。一方、シーン検出部103が操作は終了していないと判定した場合(S7でNO)には処理はS2に戻る。
なお、図6の例では、不適切な操作があったときに通知を行っているが、適切な操作が行われている期間に通知を行ってもよい。例えば、フォークリフト3が表示装置を備えている場合には、通知部105は、適切な操作が行われている期間には、その旨を示す情報を上記表示装置に表示させてもよい。例えば、通知部105は、適切な操作が行われている期間には、表示装置に青や緑色の文字や図形、記号等を表示させ、不適切な操作が行われたときにその文字や図形、記号等を変更させると共に、その表示色を黄色や赤に変更させてもよい。また、上記文字は、学習済みモデル102が出力した確率値としてもよい。この場合、作業者Aは確率値が下がらないように意識しながら作業することになるので、注意力を維持した状態で作業を進めさせることができる。
また、図6の例では、作業者Aを撮影しつつ不適切な操作の有無を判定しているが、作業の終了後に不適切な操作の有無を判定してもよい。この場合、作業者Aには作業終了後に各シーンの操作内容の適否をフィードバックすればよい。
(実施形態1のまとめ)
以上のように、本実施形態のシーン検出部103は、フォークリフト3を操作して行う作業の様子を撮影した動画像から所定の操作が行われているシーンを検出する。そして、操作適否判定部104は、学習済みモデル102に対して、シーン検出部103が検出した上記シーンを入力して得られる結果に基づいて、当該シーンにおいて行われた上記所定の操作が適切か否かを判定する。なお、学習済みモデル102は、上記所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルである。よって、本実施形態の判定装置1によれば、作業の様子を撮影した動画像から不適切な操作が行われたシーンを検出することができる。
また、本実施形態の学習済みモデル102は、所定の操作が適切に行われた作業の様子を撮影した動画像であって、各シーンが分類済みの動画像を教師データとした機械学習により生成されたものである。そして、上記学習済みモデル102は、上記学習済みモデルに入力された動画像を複数のシーンに分類すると共に、該分類の確度を示す確率値を出力する。また、シーン検出部103は、上記確率値に基づいて学習済みモデル102に入力されたシーンが学習済みの複数のシーンの何れに該当するかを検出する。さらに、操作適否判定部104は、上記確率値が所定の閾値未満であった場合に、所定の操作は適切ではないと判定する。よって、作業の様子を撮影した動画像201と、1つの学習済みモデル102とを用いてシーン検出と操作適否の判定の両方を行うことができる。
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態の判定システム100は、シーン検出の方法が実施形態1と異なっている。これについて、図7に基づいて説明する。図7は、本発明の実施形態2に係る判定システム100の概要を示す図である。
図7に示すように、本実施形態の判定システム100では、フォークリフト3の動作状況を示すセンシングデータが判定装置1に入力される。そして、判定装置1のシーン検出部103は、上記センシングデータを用いてシーン検出を行う。
使用するセンシングデータは、シーンを特定するために必要な情報を含むものであればよい。例えば、上記センシングデータは、フォークリフト3に設けた加速度センサで検知した加速度データであってもよい。この場合、シーン検出部103は、加速度センサから取得した加速度データから、各シーンに特有の加速度の変動パターンを検出する。例えば、「フォークリフトを荷物に接近させる」シーンの場合、フォークリフト3は荷物に向かって加速した後、荷物付近で減速して停止する。このため、シーン検出部103は、加速、減速、停止という加速度の変動パターンから、「フォークリフトを荷物に接近させる」シーンを検出することができる。
また、シーン検出部103は、複数種類のデータを用いてシーン検出を行ってもよい。例えば、フォークリフト3に荷物との距離を計測する距離センサを設ければ、「フォークリフトを荷物に接近させる」シーンをより確実に検出することができる。この他にも、例えばフォークリフト3が受け付けた操作内容(前進、後退、リフトの昇降等の操作の内容)を示す情報を、例えばフォークリフト3から受信する等によって取得し、そのような情報を用いてシーン検出を行うこともできる。
なお、本実施形態の判定システム100では、シーン検出部103によるシーン検出後、そのシーンの動画像201を動画像取得部101が学習済みモデル102に入力し、出力データを得る。そして、操作適否判定部104は、上記出力データにおいて最も高い確率値となったシーンが何れのシーンであるかによって、操作手順の適否を判定する。また、操作適否判定部104は、操作手順が正しい場合、上記確率値が閾値以上であるか否かを判定し、閾値以上であれば操作内容が適切、閾値未満であれば操作内容が不適切と判定する。
(実施形態2のまとめ)
以上のように、本実施形態のシーン検出部103は、フォークリフト3が操作されたときの当該フォークリフト3の動作状況を示すデータを用いてシーンを検出する。このように、動作状況を示すデータを用いたシーン検出と、学習済みモデルを用いた適否判定という異なる技術要素を組み合わせたことによって、より信頼性の高い判定を行うことが可能になる。例えば、入力された動画像201の一部にノイズが含まれており、動画像201に基づく判定の精度が落ちている期間についても、センシングデータ等を用いたシーン検出は問題なく行うことができる。よって、そのシーンについては適否判定をスキップする等の処理を採用して、信頼性の低い判定結果を出力しないようにすることもできる。
〔分散処理について〕
上記各実施形態で説明した判定装置1の実行する処理の一部は、判定装置1と通信接続された1または複数の装置に実行させてもよい。例えば、学習済みモデル102の実行する処理を、判定装置1と通信接続されたAIサーバに実行させてもよい。この場合、判定装置1は、動画像201から入力データを生成してAIサーバに送信し、該AIサーバから出力データを受信してシーン検出や操作適否の判定を行う。
〔入力データについて〕
学習済みモデル102に対する入力データとしては、動画像201をそのまま用いてもよいし、動画像201に対して所定の処理を施したものを用いてもよい。上記所定の処理は、各シーンの特徴点を失わせることなく、特徴点と関係のない情報を減らすことができるものであればよい。例えば、動画像201がカラー画像であれば、グレースケール化して入力データとしてもよい。また、動画像201において、動きのある領域のみを抽出して入力データとしてもよい。
さらに、例えば動画像201に写る対象物の中からフォークリフト3とその作業者Aを検出し、検出したフォークリフト3とその作業者Aが写る領域のみを入力データとしてもよい。これにより、フォークリフト3とその作業者Aの背景の影響を排除することができるので、判定精度を高めることができる。なお、フォークリフト3とその作業者Aの検出には、例えばCNN等の学習済みモデルを用いることができる。
〔変形例〕
上記各実施形態では、適切に行われた作業の様子を撮影した動画像を教師データとした機械学習で学習済みモデルを生成する例を説明したが、教師データは、操作内容が不適切であったときの作業の様子を撮影した動画像としてもよい。この場合、操作内容の適否の判定においては、不適切な操作内容に該当する確率が所定の閾値以上であれば、操作内容が不適切であると判定する。
例えば、荷物の積み下ろし時に荷崩れを発生させてしまったときの作業の様子を撮影した動画像を教師データとして学習済みモデルを生成したとする。この場合、荷物の積み下ろしシーンにおいて、上記学習済みモデルの出力する確率、すなわち当該シーンが荷崩れを発生させたときの操作内容と同様の操作内容である確率が閾値以上であれば、荷崩れの発生可能性が高い操作が行われたと判定することができる。
この他にも、例えば荷物の搬送時に人や物に衝突したときの様子を撮影した動画像や、フォークをフォークポケットに挿入しようとして、誤って荷物やパレットにフォークが衝突したときの動画像などを用いてもよい。これにより、荷物の搬送シーンやフォークをフォークポケットに挿入するシーンにおいて、事故などの発生可能性が高い不適切な操作が行われたか否かを判定することができる。
〔ソフトウェアによる実現例〕
判定装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、判定装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 判定装置
102 学習済みモデル
103 シーン検出部
104 操作適否判定部

Claims (4)

  1. 搬送対象物を搬送する搬送車両を操作して行う作業の様子を撮影した動画像における、上記搬送車両に対して所定の操作が行われているシーンを検出するシーン検出部と、
    上記所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルに対して、上記シーン検出部が検出した上記シーンの動画像を入力して得られる結果に基づいて、当該シーンにおいて行われた上記所定の操作が適切か否かを判定する操作適否判定部と、を備え
    上記学習済みモデルは、上記所定の操作が適切に行われた上記作業の様子を撮影した動画像であって、各シーンが分類済みの動画像を教師データとした機械学習により生成されたものであって、当該学習済みモデルに入力された動画像を複数のシーンに分類すると共に、該分類の確度を示す情報を出力するものであり、
    上記操作適否判定部は、複数の上記シーンのそれぞれについて出力された上記分類の確度のうち、上記シーン検出部が検出したシーンの上記分類の確度が所定の閾値未満であった場合に、上記所定の操作は適切ではないと判定することを特徴とする判定装置。
  2. 搬送対象物を搬送する搬送車両を操作して行う作業の様子を撮影した動画像から上記搬送車両に対して所定の操作が行われているシーンを検出するシーン検出部と、
    上記所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルに対して、上記シーン検出部が検出した上記シーンを入力して得られる結果に基づいて、当該シーンにおいて行われた上記所定の操作が適切か否かを判定する操作適否判定部と、を備え、
    上記学習済みモデルは、上記所定の操作が適切に行われた上記作業の様子を撮影した動画像であって、各シーンが分類済みの動画像を教師データとした機械学習により生成されたものであって、当該学習済みモデルに入力された動画像を複数のシーンに分類すると共に、該分類の確度を示す情報を出力するものであり、
    上記シーン検出部は、上記分類の確度に基づいて上記学習済みモデルに入力されたシーンが上記複数のシーンの何れに該当するかを検出し、
    上記操作適否判定部は、複数の上記シーンのそれぞれについて出力された上記分類の確度のうち、上記シーン検出部が検出したシーンの上記分類の確度が所定の閾値未満であった場合に、上記所定の操作は適切ではないと判定することを特徴とする判定装置。
  3. 上記シーン検出部は、上記搬送車両が操作されたときの当該搬送車両の動作状況を示すデータを用いて上記シーンを検出する、
    ことを特徴とする請求項1に記載の判定装置。
  4. 判定装置による判定方法であって、
    搬送対象物を搬送する搬送車両を操作して行う作業の様子を撮影した動画像における、上記搬送車両に対して所定の操作が行われているシーンを検出するシーン検出ステップと、
    上記所定の操作が適切に行われたシーンを撮影した動画像を教師データとした機械学習により生成された学習済みモデルに対して、上記シーン検出ステップで検出した上記シーンの動画像を入力して得られる結果に基づいて、当該シーンにおいて行われた上記所定の操作が適切か否かを判定する操作適否判定ステップと、を含み、
    上記学習済みモデルは、上記所定の操作が適切に行われた上記作業の様子を撮影した動画像であって、各シーンが分類済みの動画像を教師データとした機械学習により生成されたものであって、当該学習済みモデルに入力された動画像を複数のシーンに分類すると共に、該分類の確度を示す情報を出力するものであり、
    上記操作適否判定ステップでは、複数の上記シーンのそれぞれについて出力された上記分類の確度のうち、上記シーン検出ステップにて検出したシーンの上記分類の確度が所定の閾値未満であった場合に、上記所定の操作は適切ではないと判定することを特徴とする判定方法。
JP2018145315A 2018-08-01 2018-08-01 判定装置および判定方法 Active JP6613343B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145315A JP6613343B1 (ja) 2018-08-01 2018-08-01 判定装置および判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145315A JP6613343B1 (ja) 2018-08-01 2018-08-01 判定装置および判定方法

Publications (2)

Publication Number Publication Date
JP6613343B1 true JP6613343B1 (ja) 2019-11-27
JP2020021323A JP2020021323A (ja) 2020-02-06

Family

ID=68692108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145315A Active JP6613343B1 (ja) 2018-08-01 2018-08-01 判定装置および判定方法

Country Status (1)

Country Link
JP (1) JP6613343B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021109732A (ja) * 2020-01-09 2021-08-02 東芝三菱電機産業システム株式会社 クレーン運転操作記録装置
JP7401303B2 (ja) 2019-12-27 2023-12-19 矢崎エナジーシステム株式会社 作業車両の操作評価システム
JP7471435B2 (ja) 2020-09-17 2024-04-19 株式会社日立国際電気 映像処理装置、撮像装置、及び、映像処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7124852B2 (ja) * 2020-07-30 2022-08-24 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置及びプログラム
JP7353501B2 (ja) * 2020-08-07 2023-09-29 三菱電機株式会社 運搬車両稼働分析システム、運搬車両稼働分析装置、運搬車両稼働分析方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151694A (ja) * 2016-02-24 2017-08-31 株式会社デンソー 安全確認診断システム及び安全確認診断方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401303B2 (ja) 2019-12-27 2023-12-19 矢崎エナジーシステム株式会社 作業車両の操作評価システム
JP2021109732A (ja) * 2020-01-09 2021-08-02 東芝三菱電機産業システム株式会社 クレーン運転操作記録装置
JP7220014B2 (ja) 2020-01-09 2023-02-09 東芝三菱電機産業システム株式会社 クレーン運転操作記録装置
JP7471435B2 (ja) 2020-09-17 2024-04-19 株式会社日立国際電気 映像処理装置、撮像装置、及び、映像処理方法

Also Published As

Publication number Publication date
JP2020021323A (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
JP6613343B1 (ja) 判定装置および判定方法
US8233678B2 (en) Imaging apparatus, imaging method and computer program for detecting a facial expression from a normalized face image
JP2019156641A (ja) フォークリフト用の画像処理装置、および制御プログラム
US20100253495A1 (en) In-vehicle image processing device, image processing method and memory medium
JP2008033819A (ja) 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
CN109383519B (zh) 信息处理方法、信息处理系统和记录介质
US10675659B2 (en) Instruction projecting device, package sorting system and instruction projecting method
US20190042847A1 (en) Instruction projecting device, package sorting system and instruction projecting method
US11657634B2 (en) Control system, control method, and program
EP3434623A1 (en) Projection indicator, cargo assortment system, and projection indicating method
JP6586497B1 (ja) 差込制御装置および差込制御方法
JP6674515B2 (ja) 判定装置および判定方法
JP6600726B1 (ja) 判定装置および判定方法
JP6586496B1 (ja) 出力制御装置および出力制御方法
JP6722733B2 (ja) 判定装置および判定方法
JP2021076711A (ja) スクラップ画像撮影システム、スクラップ画像撮影方法、撮影支援装置、及びプログラム
JP6893198B2 (ja) 情報処理装置および情報処理方法
EP3647236A1 (en) Projection instruction device, baggage sorting system, and projection instruction method
CN113879321B (zh) 驾驶员监视装置及驾驶员监视方法
JP5376254B2 (ja) 被写体認識装置
JP2019142304A (ja) 落下物検出装置及び落下物検出方法
US20200380296A1 (en) Reading system, reading method, storage medium, and moving body
KR102135883B1 (ko) 크레인의 인양물 분석 시스템 및 방법
CN113784875B (zh) 相机位置检测装置和方法、相机单元以及存储介质
US20220230333A1 (en) Information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191101

R150 Certificate of patent or registration of utility model

Ref document number: 6613343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150