JP7299187B2 - 作業支援システムおよび作業支援方法 - Google Patents

作業支援システムおよび作業支援方法 Download PDF

Info

Publication number
JP7299187B2
JP7299187B2 JP2020051389A JP2020051389A JP7299187B2 JP 7299187 B2 JP7299187 B2 JP 7299187B2 JP 2020051389 A JP2020051389 A JP 2020051389A JP 2020051389 A JP2020051389 A JP 2020051389A JP 7299187 B2 JP7299187 B2 JP 7299187B2
Authority
JP
Japan
Prior art keywords
inquiry
unit
work
targets
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020051389A
Other languages
English (en)
Other versions
JP2021149828A (ja
Inventor
高行 秋山
光弘 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020051389A priority Critical patent/JP7299187B2/ja
Priority to US17/119,388 priority patent/US11474505B2/en
Publication of JP2021149828A publication Critical patent/JP2021149828A/ja
Application granted granted Critical
Publication of JP7299187B2 publication Critical patent/JP7299187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32368Quality control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Description

本発明は、概して、作業者が誤った作業を実施してしまう事態を回避する技術に関する。
工場、ビル等で製造、点検、検査、保守等の作業を行う作業者は、マイク、カメラ等を装着して作業を行っている。作業者は、サーバ装置から指示された内容に従って作業を行い、作業が終わると、マイク、カメラ等を用いて作業が完了した旨をサーバ装置に報告する。そして、サーバ装置は、作業が正常に終了したか否かを判定する。
この点、作業領域の画像に基づいて、複数の工程のうち判定対象の工程での作業内容の良否を判定し、判定対象の工程の作業内容が不良と判定された場合に報知動作を行わせる作業支援システムが開示されている(特許文献1参照)。
特開2019-75009号公報
特許文献1に記載の作業支援システムでは、作業の実施後に、作業の良否が判定されるが、作業の実施前には、作業の支援が行われないので、作業者が誤った作業を実施してしまうおそれがある。
本発明は、以上の点を考慮してなされたもので、作業者が誤った作業を実施してしまう事態を回避し得る作業支援システム等を提案しようとするものである。
かかる課題を解決するため本発明においては、撮影装置で取得された映像から、作業者からの問合せの対象を特定する特定部と、問合せの対象毎に、問合せの対象が正しいか否かを判定するための判定モデルで用いられる判定モデル情報を記憶する記憶部から、前記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を選択する選択部と、前記選択部により選択された、前記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を前記判定モデルに設定した各判定モデルを用いて、前記問合せの対象の各々について正しいか否かを判定する判定部と、前記判定部により判定された結果を出力する出力部と、を設けるようにした。
上記構成では、問合せの対象が検出され、検出された問合せの対象に対応する判定モデル情報が選択され、選択された判定モデル情報が設定された判定モデルが用いられて、当該問合せの対象が正しいか否かが判定される。上記構成によれば、例えば、作業者は、作業を行う前に、問合せを行って作業を確認することができるので、誤った作業を実施してしまう事態を回避することができる。このように、作業支援システムは、正しく作業が行われるように作業者を支援することで、作業のミスが低減し、作業が効率よく行われるようになる。
本発明によれば、作業者が誤った作業を実施してしまう事態を回避することができるようになる。
第1の実施の形態による作業支援システムに係る構成の一例を示す図である。 第1の実施の形態による情報処理装置が行う処理の一例を示す図である。 第1の実施の形態による正誤判定モデル情報の一例を示す図である。 第1の実施の形態による問合せの一例を示す図である。 第2の実施の形態による作業支援システムに係る構成の一例を示す図である。 第2の実施の形態による情報処理装置が行う処理の一例を示す図である。 第2の実施の形態による作業物体管理情報の一例を示す図である。 第3の実施の形態による作業支援システムに係る構成の一例を示す図である。 第3の実施の形態による情報処理装置が行う処理の一例を示す図である。 第4の実施の形態による作業支援システムに係る構成の一例を示す図である。 第4の実施の形態による情報処理装置が行う処理の一例を示す図である。 第4の実施の形態による問合せデータベースの一例を示す図である。 第5の実施の形態による作業支援システムに係る構成の一例を示す図である。 第5の実施の形態による履歴データベースの一例を示す図である。
(1)第1の実施の形態
以下、本発明の一実施の形態を詳述する。本実施の形態では、作業者が誤った作業を実施してしまう事態を回避し得る構成に関して説明する。ただし、本発明は、実施の形態に限定されるものではない。
本実施の形態に示す作業支援システムは、例えば、作業者に作業の内容を指示する。作業支援システムは、カメラで撮影された映像をもとに、例えば、作業者からの問合せの対象を検出する。
問合せの対象としては、作業に係る物体と、作業に係る動作とのうち少なくとも1つが挙げれる。作業に係る物体とは、作業に係る物品と、作業に係る場所とがある。作業に係る物品は、作業において用いるネジといった部品、ネジを締めるためのドライバといった道具等である。作業に係る場所は、ネジのネジ穴のような部品が用いられる部位、部品を取り付ける機器等である。作業に係る動作とは、道具を使う動作、機器を使う動作等である。なお、物品と場所との区別を要しない場合は、「物体」と記すことがある。
例えば、作業支援システムは、ネジをカメラらに近づけている場合は、当該ネジが正しいか否かを問い合わせていること(問合せの物品)を検出する。例えば、作業支援システムは、作業者がネジ穴をカメラに近づけている場合は、当該ネジ穴が正しい作業のネジ穴であるか否かを問い合わせていること(問合せの場所)を検出する。また、例えば、作業支援システムは、カメラに向けて作業者がネジを締める動作をしている場合は、当該動作が正しい作業の動作であるか否かを問い合わせていること(問合せの動作)を検出する。
また、作業支援システムは、様々な問合せの対象の各々に対応して、問合せの対象に対する正誤を判定可能なモデル(以下、「正誤判定モデル」と記す)の情報(以下、「パラメータ」と記すことがある)を備えている。作業支援システムは、問合せの対象に対応するパラメータを設定した正誤モデルを用いて、当該問合せの対象に対する正誤を判定する。そして、作業支援システムは、正誤の結果を作業者に提示する。
上記構成では、作業者は、作業を開始する前に、問合せを行うことができ、当該問合せに対する回答を得ることができる。例えば、問合せの内容が誤っていた場合は、作業者は、正しい作業の内容が確認できるまで問合せを行うことで、作業者が誤った作業を実施してしまう事態を回避できるようになる。
また、例えば、作業に不慣れな作業者、作業に自信のない作業者等は、作業の内容を詳細に確認することができる。よって、作業を実施する前に、作業で使用する道具、作業の対象となる機器、当該道具、当該機器等の操作方法等が正しいかを事前に確認することができ、作業を効率的に行うことができるようになる。
次に、本発明の実施形態を図面に基づいて説明する。図1において、符号「100」は、第1の実施の形態の作業支援システムを示す。
図1は、作業支援システム100に係る構成の一例を示す図である。
作業支援システム100は、カメラ101と、情報提示装置102と、情報処理装置110とを備える。
カメラ101は、作業者の身体、作業者のヘルメット等に装着され、ハンズフリーで撮影を行うことができる小型のビデオカメラである。カメラ101は、スマートグラス、ウェアラブルカメラ、アクションカメラ等である。カメラ101は、作業者が一人称で見ているものを撮影する。カメラ101は、撮像装置とマイクとを備え、作業に係る物体、作業に係る動作、作業者の発話といった作業の問合せに係る内容を取得する。
情報提示装置102は、作業者の身体、作業者のヘルメット等に装着され、情報を提示することができる小型の出力装置である。情報提示装置102は、スピーカ、HMD(Head Mounted Display)、スマートフォン等である。情報提示装置102は、情報処理装置110が指示する作業の内容、情報処理装置110における問合せの正誤の結果といった情報を作業者に提示する。
なお、カメラ101の筐体と情報提示装置102の筐体とは、別体であってもよいし、一体であってもよい。
情報処理装置110は、制御部111と、記憶部112と、通信部113とを備える。
制御部111は、演算処理を行う装置である。制御部111は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AI(Artificial Intelligence)チップ等である。
記憶部112は、主記憶装置と補助記憶装置とのうちの少なくとも1つである。記憶部112は、典型的には主記憶装置である。
主記憶装置は、プログラム、データ等を記憶する装置である。主記憶装置は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等である。ROMは、SRAM(Static Random Access Memory)、NVRAM(Non Volatile RAM)、マスクROM(Mask Read Only Memory)、PROM(Programmable ROM)等である。RAMは、DRAM(Dynamic Random Access Memory)等である。
補助記憶装置は、ハードディスクドライブ(Hard Disk Drive)、フラッシュメモリ(Flash Memory)、SSD(Solid State Drive)、光学式記憶装置等である。光学式記憶装置は、CD(Compact Disc)、DVD(Digital Versatile Disc)等である。補助記憶装置に格納されているプログラム、データ等は、主記憶装置に随時読み込まれる。
通信部113は、他の装置と通信する通信インターフェースである。通信部113は、例えば、無線通信モジュール、NIC(Network Interface Card)、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。通信部113は、通信可能に接続する他の装置から情報を受信する装置として機能することもできる。また、通信部113は、通信可能に接続する他の装置に情報を送信する装置として機能することもできる。
情報処理装置110は、入力装置と出力装置との少なくとも1つを備えてもよい。
入力装置は、ユーザから情報を受付けるユーザインターフェースである。入力装置は、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。出力装置は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインターフェースである。出力装置は、例えば、各種情報を可視化する表示装置、音声出力装置(スピーカ)、印字装置等である。表示装置は、LCD(Liquid Crystal Display)、グラフィックカード等である。
なお、情報処理装置110は、カメラ101に設けられていてもよいし、情報提示装置102に設けられていてもよい。また、情報処理装置110は、作業者が作業している場所と同じ場所に設けられていてもよいし、作業者が作業している場所と異なる場所に設けられていてもよい。
情報処理装置110が備える各種の機能は、制御部111が、記憶部112に格納されているプログラムを読み出して実行することにより、または、情報処理装置110を構成しているハードウェア(FPGA、ASIC、AIチップ等)により実現される。情報処理装置110の機能としては、特定部114、選択部115、判定部116、出力部117等がある。情報処理装置110は、上記の機能に加えて、例えば、オペレーティングシステム、デバイスドライバ、ファイルシステム、DBMS(DataBase Management System)等の機能を更に備えていてもよい。
特定部114は、カメラ101で取得された映像から、作業者からの問合せの対象を特定する。
選択部115は、正誤判定モデル情報118から、特定部114により特定された問合せの対象に対応する正誤判定モデルの情報を選択する。なお、正誤判定モデル情報118については、図3を用いて後述する。
判定部116は、選択部115により選択された正誤判定モデルの情報とカメラ101で取得された映像とを用いて、特定部114により特定された問合せの対象について正しいか否かを判定する。
出力部117は、判定部116により判定された結果を出力する。
図2は、情報処理装置110が行う処理の一例を示す図である。情報処理装置110は、カメラ101から映像を常時受信している。
まず、特定部114は、S201~S205の処理を行い、作業者からの問合せの対象を特定する。
S201では、特定部114は、カメラ101の映像から、記憶部112に登録されている検出の対象とする物体(以下、「特定の物体」と記す)を検出する。より具体的には、特定部114は、カメラ101から受信した映像(規定のフレームレートで送信された各画像)と、物体検出モデルとを用いて、特定の物体を検出する。この際、特定部114は、検出した物体を識別可能な識別情報である物体IDを物体検出モデルから受け取る。
物体検出モデルについては、SSD(Single Shot MultiBox Detector)といった公知の技術を用いることができる。なお、物体検出モデルでは、入力された画像に複数の特定の物体が含まれる場合、複数の特定の物体が検出される。なお、S202、S203、S211、S221、S231においては、問合せの物体毎に処理が行われるが、説明の簡略化のため、以下では、問合せの物体が1つ検出された場合について主に説明する。
S202では、特定部114は、検出した物体の面積を計算する。例えば、特定部114は、検出した物体の画像上のサイズ(ピクセル数)を計算する。例えば、特定部114は、画像から物体を切り出す領域であるバウンディングボックスの大きさを計算する。
S203では、特定部114は、検出した物体の面積が規定値より大きいか否か(検出した物体を問い合わせているか否か)を判定する。特定部114は、検出した物体を問い合わせていると判定した場合、検出した物体を問合せの対象であると特定し、S211に処理を移し、検出した物体を問い合わせていないと判定した場合、S201に処理を戻す。なお、記憶部112には、検出した物体の物体IDごとに、規定値が記憶されている。
ここで、検出した物体の画像上のサイズが規定値より大きいということは、当該検出した物体がズームアップされていることを示し、作業者が当該検出した物体についての問合せを行っていることを示している。
なお、S203では、検出した物体の面積を規定値と比較する処理を示したが、S203の処理は、この処理に限らない。例えば、S203の処理は、検出した物体の面積が画像に占める割合と規定値とを比較する処理であってもよい。
また、例えば、特定部114は、検出した物体が作業に係る場所である場合には、S202およびS203の処理を行わなくてもよい。
S204では、特定部114は、カメラ101の映像から、記憶部112に記憶されている特定の物体の確認を補助する作業者の動作(以下、「特定の補助動作」と記す)を検出する。より具体的には、特定部114は、カメラ101から受信した所定の時間の映像の画像と、動画像認識モデルとを用いて、特定の補助動作を検出する。特定の補助動作としては、問合せの物体を指で指し示す「指差し」が挙げられる。
動画像認識モデルについては、CNN(Convolutional Neural Network)といった公知の技術を用いることができる。
S205では、特定部114は、特定の補助動作を検出したか否かを判定する。特定部114は、特定の補助動作を検出し、かつ、問合せの物体を特定したと判定した場合、S211に処理を移し、特定の補助動作と特定の物体との少なくとも一方を検出しなかったと判定した場合、S204に処理を戻す。
このように、作業支援システム100では、作業者が、問合せの物体を動かせない、問合せの物体の名称が分からない、問合せの物体に近づけない、問合せの物体に触れられないといった場合に、特定の補助動作を検出することにより、問合せの物体の特定を補助している。
次に、選択部115は、S211の処理を行い、正誤判定モデルに設定するパラメータを特定可能な情報を選択する。正誤判定モデルは、例えば、CNNといったニューラルネットワークである。
S211では、選択部115は、記憶部112に記憶されている正誤判定モデル情報118から、問合せの物体の物体ID(物品IDまたは場所ID)に紐付く正誤判定モデルの正誤判定モデルIDを検索する。なお、正誤判定モデル情報118については、図3を用いて後述する。
S221では、情報処理装置110の判定部116は、選択部115により選択されたモデルIDのパラメータをセットした正誤判定モデルに物体が検出された画像を入力し、特定した物体、つまり問合せの物体が正しいか否かを判定する。
S231では、情報処理装置110の出力部117は、判定部116により判定された結果を示す情報を情報提示装置102に送信する。情報提示装置102は、受信した結果を作業者に提示する。情報提示装置102は、例えば、問合せの対象について、「正しいです」、「間違っています」といった情報を出力する。なお、出力については、音声による出力であってもよいし、表示による出力であってもよいし、その他の態様の出力であってもよい。
図3は、正誤判定モデル情報118の一例(正誤判定モデル情報テーブル300)を示す図である。
正誤判定モデル情報テーブル300は、正誤判定モデル毎に、正誤判定モデルに設定されるパラメータ記憶する。より具体的には、正誤判定モデル情報テーブル300は、正誤判定モデルID301と、物品ID302と、場所ID303と、1つ以上のパラメータ304とが対応付けられた情報(レコード)を記憶する。
正誤判定モデルID301は、正誤判定モデルを識別可能な識別情報である。物品ID302は、当該正誤判定モデルで判定可能な作業に係る物品を識別可能な識別情報である。場所ID303は、当該正誤判定モデルで判定可能な作業に係る場所を識別可能な識別情報である。パラメータ304は、当該正誤判定モデルに設定されるパラメータ(例えば、ニューラルネットワークにおける重みを示す情報)である。
例えば、選択部115は、特定部114から受け取った物体IDが物品ID「102」である場合には、物品ID302の列を参照し、物品ID「102」が含まれるレコードの正誤判定モデルID301の値「002」を選択する。
図4は、問合せの一例を示す図である。図4では、問合せの物体がズームアップされ、問合せの物体に対して指差しが行われることにより、問い合わせが行われていることが示されている。
例えば、作業者が製品に貼られたラベルを確認する作業を行う際、作業者は、確認するラベルが正しいかどうかを確かめたいときは、ラベルに近づいていき、ラベルを指差す動作を行う。
画像410は、作業者が問合せを開始する前の画像の一例である。画像410には、製品を示す製品画像411と第1のラベルを示すラベル画像412と第2のラベルを示すラベル画像413とが含まれる。
画像420は、作業者が問合せを行っているときの画像の一例である。画像420には、ラベル画像412がズームアップされたラベル画像421と、ラベル画像413がズームアップされたラベル画像422と、作業者による指差しを示す指指し画像423とが含まれる。
本例においては、画像420についてS201が行われることにより、特定の物体として、第1のラベルと、第2のラベルとが検出される。また、S202およびS203が行われ、ラベル画像421およびラベル画像422の面積が規定値より大きいと判定される。
また、並行して、画像410から画像420までの一連の画像についてS204が行われることにより、特定の補助動作として、指差しが検出される。
そして、S205において、指差しが行われている第1のラベルが問合せの対象として特定される。つまり、画像420において、第1のラベルとは異なる第2のラベルのラベル画像413が含まれているが、第1のラベルに対して指差しが行われることで、問合せの物体が第1のラベルであると特定できる。
続いて、S211において、第1のラベルに対応する正誤判定モデルの正誤判定モデルIDが選択される。続いて、S221において、選択された正誤判定モデルIDに紐づくパラメータが正誤判定モデルに設定され、当該正誤判定モデルに画像420が入力され、作業者により指差しされた第1のラベルが確認するラベルであるか否かが判定される。続いて、S231において、判定の結果が作業者に提示される。
本実施の形態の形態によれば、作業者は、作業を行う前に、問合せを行って作業を確認することができるので、誤った作業を実施してしまう事態を回避することができる。また、本実施の形態では、作業者におけるマニュアルの確認の手間を省くことができるようになる。
(2)第2の実施の形態
本実施の形態は、作業の状況をもとに問合せの対象を絞り込む点が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜省略する。
図5は、本実施の形態の作業支援システム500に係る構成の一例を示す図である。
情報処理装置510は、選択部511、管理部512、作業物体管理情報513等を備える。なお、選択部511は、選択部115の機能に加えて、特定部114により特定された物体IDの中から、現在の作業に関する物体IDを選択する。
管理部512は、作業者により行われる作業を管理する。管理部512は、作業者から送信された、作業を構成する項目(以下、「作業項目」と記す)が終了した旨の情報に基づいて、作業項目が正常に行われたか否かを判定する。管理部512は、作業物体管理情報513を参照し、次の作業項目に係る物体の物体ID(物品ID、場所ID等)を特定し、特定した物体IDを現在の作業に関する現在作業情報として選択部115に通知する。なお、作業物体管理情報513については、図7を用いて後述する。
図6は、情報処理装置510が行う処理の一例を示す図である。
S601では、選択部115は、管理部512により通知される現在作業情報に基づいて、特定部114で特定された物体IDが現在の作業に係る物体IDであるか否か(特定された物体が現在の作業に係る物体であるか否か)を判定する。選択部115は、特定された物体が現在の作業に係る物体であると判定した場合、S211に処理を移し、特定された物体が現在の作業に係る物体でないと判定した場合、当該物体についての処理を終了する。
なお、作業支援システム500は、特定された物体が現在の作業に係る物体でないと判定した場合、現在の作業に係る物体でないことを示す情報を情報提示装置102に送信する構成を備えてもよい。
次に、作業物体管理情報513について図7を用いて説明する。
図7は、作業物体管理情報513の一例(作業物体管理テーブル700)を示す図である。
作業物体管理テーブル700は、作業項目ごとに、作業項目に係る物体を特定可能な情報を記憶する。より具体的には、作業物体管理テーブル700は、作業ID701、作業項目ID702、物品ID703、および場所ID704が対応付けられた情報(レコード)を記憶する。
作業ID701は、当該作業項目が含まれる作業を識別可能な識別情報である。作業項目ID702は、当該作業項目を識別可能な識別情報である。物品ID703は、当該作業項目に係る物品を識別可能な識別情報である。場所ID704は、当該作業項目に係る場所を識別可能な識別情報である。
なお、作業は、1つ以上の作業項目を含む構成を例に挙げて説明したが、この構成に限らない。例えば、作業が作業項目を含まない構成であってもよいし、作業項目が更に複数の細目を含む構成であってもよい。
本実施の形態では、現在の作業に関係のない物体が特定されたとしても、現在の作業に基づいて当該物体が排除されて、問合せの物体が適切に絞り込まれるので、より精確に問合せの物体について判定できるようになる。
(3)第3の実施の形態
本実施の形態は、誤った作業の原因となる動作(以下、「原因動作」と記す)を検出して問合せを促す点が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜省略する。
原因動作としては、作業に係る物体から視線を外すこと、作業に係る物体とは別の物体に手を伸ばすこと等が挙げられる。
図8は、本実施の形態の作業支援システム800に係る構成の一例を示す図である。
情報処理装置810は、検出部811、原因動作検出モデル情報812等を備える。検出部811は、原因動作を検出可能な原因動作検出モデルを用いて、原因動作を検出する。原因動作検出モデルは、例えば、CNNといったニューラルネットワークである。原因動作検出モデル情報812は、原因動作検出モデルのパラメータを記憶する。
図9は、情報処理装置810が行う処理の一例を示す図である。情報処理装置810は、カメラ101から映像を常時受信している。なお、情報処理装置810が受信する映像は、カメラ101で取得された映像に限らない。例えば、作業者が作業を行う場所に設置され、当該場所を撮影するカメラで取得された映像であってもよい。
S901の処理は、出力部117が、「ネジXをドライバYで絞めてください。」といった作業の内容を指示する情報を情報提示装置102に送信したことを契機に開始され、所定の間隔で行われている。なお、S901~S903の処理は、S201~S231の処理と並列に行われている。
S901では、検出部811は、カメラ101から受信した所定の時間の映像をもとに、原因動作検出モデルを用いて原因動作を検出する。例えば、検出部811は、原因動作検出モデル情報812に記憶されているパラメータを原因動作検出モデルに順次に設定し、予め登録している各原因動作を検出する。この際、検出部811は、検出した原因動作を識別可能な識別情報である原因動作IDを原因動作検出モデルから受け取る。
S902では、検出部811は、原因動作を検出したか否かを判定する。検出部811は、原因動作を検出したと判定した場合、S903に処理を移し、原因動作を検出していないと判定した場合、S901に処理を戻す。
S903では、出力部117は、原因動作IDに対応して設けられている、問合せを促す旨の情報(以下、「アラート」と記す)を情報提示装置102に送信する。出力部117は、例えば、アラート910を情報提示装置102に送信する。
ここで、原因動作検出モデル情報テーブル920は、原因動作検出モデル情報812の一例である。
原因動作検出モデル情報テーブル920は、原因動作検出モデル毎に、原因動作検出モデルに設定されるパラメータを記憶する。より具体的には、原因動作検出モデル情報テーブル920は、モデルID921と、原因動作ID922と、1つ以上のパラメータ923とが対応付けられた情報(レコード)を記憶する。
モデルID921は、原因動作検出モデルを識別可能な識別情報である。原因動作ID922は、当該原因動作検出モデルで判定可能な原因動作を識別可能な識別情報である。パラメータ923は、当該原因動作検出モデルに設定されるパラメータ(例えば、ニューラルネットワークにおける重みを示す情報)である。
ここで、誤った作業は、しばしば、作業者の思い込みで行われたり、作業者が作業を十分に理解していない状態で行われたりしている。この点、本実施の形態では、誤った作業の原因となる動作が検出された場合に、問合せを誘発することで、誤った作業が行われてしまう事態を回避することができる。
(4)第4の実施の形態
本実施の形態は、作業者による発話をもとに問合せの対象を特定する点が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜省略する。
図10は、本実施の形態の作業支援システム1000に係る構成の一例を示す図である。
情報処理装置1010は、特定部1011、決定部1012、問合せデータベース1013等を備える。なお、特定部1011は、特定部114の機能に加え、決定部1012により決定された問合せの内容に基づいて問合せの対象を特定する。
決定部1012は、作業者の発話(音声)を認識し、認識した発話と問合せデータベース1013とをもとに問合せの内容を決定する。問合せデータベース1013は、問合せに係る発話の内容を記憶している。なお、問合せデータベース1013については、図12を用いて後述する。
図11は、情報処理装置1010が行う処理の一例を示す図である。情報処理装置1010は、カメラ101から音声を常時受信している。なお、情報処理装置1010が受信する音声は、カメラ101で取得された音声に限らない。例えば、作業者が作業を行う場所に設置され、当該場所の音を取得するマイクで取得された音声であってもよい。
S1101では、決定部1012は、作業者の音声を認識する。例えば、決定部1012は、音声データを文字データに変換する音声認識技術を用いて作業者の音声をテキストに変換する。
S1102では、決定部1012は、問合せの内容を決定する。より具体的には、決定部1012は、問合せデータベース1013を参照し、テキストに対応する問合せの内容を決定し、S1105に処理を移す。なお、決定部1012は、テキストに対応する問合せの内容として、問合せに係る物品の物品ID、問合せに係る場所の場所ID、および問合せに係る動作の動作IDの少なくとも1つを決定する。
S1103では、特定部1011は、カメラ101から受信した映像と、特定動作検出モデルとを用いて、特定の動作を検出する。この際、特定部1011は、検出した動作を識別可能な識別情報である動作IDを特定動作検出モデルから受け取る。
特定動作検出モデルは、特定の動作毎に設けられている。特定動作検出モデルは、例えば、CNNといったニューラルネットワークである。
特定の動作としては、ドライバを右に回すといった作業に係る物品を使う動作、バルブを右に回すといった作業に係る機器を使う動作などが挙げられる。
S1104では、特定部1011は、特定の動作を検出したか否かを判定する。特定部1011は、特定の動作を検出したと判定した場合、S1105に処理を移し、特定の動作を検出していないと判定した場合、S1103に処理を戻す。
S1105では、特定部1011は、検出した内容(物品ID、場所ID、動作ID)が、音声に基づいて特定された問合せの内容と一致しているか否かを判定する。特定部1011は、検出した内容が問合せの内容と一致していると判定した場合、S211に処理を移し、検出した内容が問合せの内容と一致していないと判定した場合、処理を終了する。
付言するならば、図示は省略するが、記憶部112には、動作IDに対応して正誤判定モデルのパラメータが記憶されている。つまり、問合せの対象として、特定の動作が特定された場合、当該動作の正誤を判定可能な正誤判定モデルが用いられて当該動作の正誤が判定される。
図12は、問合せデータベース1013の一例(問合せテーブル1200)を示す図である。
問合せテーブル1200では、テキスト1201、物品ID1202、場所ID1203、および動作ID1204が対応付けられた情報(レコード)が記憶される。
テキスト1201は、発話を示すテキストである。物品ID1202は、当該テキストに係る物品を識別可能な識別情報である。場所ID1203は、当該テキストに係る場所を識別可能な識別情報である。動作ID1204は、当該テキストに係る動作を識別可能な識別情報である。
例えば、作業者が「ここですか」と発話した場合、決定部1012は、テキスト1201の列を参照し、6行目のレコードを特定し、当該レコードの物品ID1202「0」、場所ID1203「1」、および動作ID1204「0」を決定する。なお、値「1」は、テキストに係る対象であることを示し、値「0」は、テキストに係る対象でないことを示す。
また、特定部1011は、S201~S205の処理、並びに、S1103およびS1104の処理を行い、場所IDだけを取得した場合は、S211に処理を移し、物品IDまたは場所IDを取得した場合は、処理を終了する。
本実施の形態では、作業者による発話の内容をもとに問合せの内容が決定され、問合せの内容に一致する問合せの対象が特定されるので、問合せに対する回答の精度を高めることができる。
(5)第5の実施の形態
本実施の形態は、作業者による作業の履歴をもとに原因動作を検出可能な原因動作検出モデルを生成する点が第3の実施の形態と主に異なる。本実施の形態では、第1の実施の形態および第3の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜省略する。
図13は、本実施の形態の作業支援システム1300に係る構成の一例を示す図である。
情報処理装置1310は、学習部1311、履歴データベース1312等を備える。学習部1311は、履歴データベース1312をもとに、公知の行動認識技術を用いて原因動作検出モデルを学習する。原因動作検出モデルの学習とは、既存の原因動作検出モデルの検出精度の向上であってもよいし、新規の原因動作検出モデルの生成であってもよい。履歴データベース1312は、作業者が行った誤った作業に係る映像を特定可能な情報を記憶している。なお、履歴データベース1312については、図14を用いて後述する。
なお、履歴データベース1312は、記憶部112に記憶されていてもよいし、記憶部112とは異なる、情報処理装置1310と通信可能な他の記憶部に記憶されていてもよい。
図14は、履歴データベース1312の一例(履歴テーブル1400)を示す図である。
履歴テーブル1400では、履歴ID1401、映像ID1402、および発生時間1403が対応付けられた情報(レコード)が記憶される。
履歴ID1401は、原因動作の履歴を識別可能な識別情報である。映像ID1402は、当該原因動作が検出された映像を識別可能な識別情報である。発生時間1403は、当該原因動作が発生した時間を示す情報である。例えば、原因動作検出モデルの学習では、発生時間1403より所定の時間前から発生時間1403までの映像が用いられる。
なお、原因動作検出モデルの学習で用いられる映像は、カメラ101により取得された映像であってもよいし、カメラ101とは異なる撮影装置で取得された映像であってもよい。また、履歴データベース1312は、原因動作毎に設けられる構成に限らない。例えば、履歴データベース1312は、原因動作を識別可能な原因動作IDを備え、複数種類の原因動作の履歴を記憶してもよい。
本実施の形態では、蓄積された誤った作業の履歴をもとに、原因動作(視線を外す等)を検出する原因動作検出モデルを学習し、当該原因動作検出モデルを用いて原因動作を検出することで、問合せを促すことができるようになる。
(6)付記
上述の実施の形態には、例えば、以下のような内容が含まれる。
上述の実施の形態においては、本発明を作業支援システムに適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のシステム、装置、方法、プログラムに広く適用することができる。
また、上述の実施の形態においては、カメラ101が作業者に装着される場合について述べたが、本発明はこれに限らず、カメラ101は、工場、ビル等に設置されていてもよい。
また、上述の実施の形態においては、カメラ101は、1台である場合について述べたが、本発明はこれに限らず、カメラ101は、複数台であってもよい。
また、上述の実施の形態においては、情報提示装置102が作業者に装着される場合について述べたが、本発明はこれに限らず、情報提示装置102は、工場、ビル等に設置されていてもよい。
また、上述の実施の形態においては、情報提示装置102は、1台である場合について述べたが、本発明はこれに限らず、情報提示装置102は、複数台であってもよい。
また、上述の実施の形態において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部または一部が1つのテーブルであってもよい。
また、上述の実施の形態において、説明の便宜上、XXデータベース、XXテーブルを用いて各種のデータを説明したが、データ構造は限定されるものではなく、XX情報等と表現してもよい。
また、上記の説明において、各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
上述した実施の形態は、例えば、以下の特徴的な構成を有する。
作業支援システム(例えば、作業支援システム100、作業支援システム500、作業支援システム800、作業支援システム1000、作業支援システム1300)は、撮影装置(例えば、カメラ101)で取得された映像から、作業者からの問合せの対象(作業に係る物体と、作業に係る動作とのうちの少なくとも1つ)を特定する特定部(例えば、特定部114、特定部1011)と、問合せの対象毎に、問合せの対象が正しいか否かを判定するための判定モデル(例えば、正誤判定モデル)で用いられる判定モデル情報(パラメータ)を記憶する記憶部(例えば、記憶部112)から、上記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を選択する選択部(例えば、選択部115、選択部511)と、上記選択部により選択された、上記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を上記判定モデルに設定した各判定モデルを用いて、上記問合せの対象の各々について正しいか否かを判定する判定部(例えば、判定部116)と、上記判定部により判定された結果を出力する出力部(例えば、出力部117)と、を備える。
上記構成では、問合せの対象が検出され、検出された問合せの対象に対応する判定モデル情報が選択され、選択された判定モデル情報が設定された判定モデルが用いられて、当該問合せの対象が正しいか否かが判定される。上記構成によれば、例えば、作業者は、作業を行う前に、問合せを行って作業を確認することができるので、誤った作業を実施してしまう事態を回避することができる。このように、作業支援システムは、正しく作業が行われるように作業者を支援することで、作業のミスが低減し、作業が効率よく行われるようになる。
上記選択部は、作業毎に、作業に係る1つ以上の問合せの対象が規定された情報(例えば、作業物体管理情報513)から、現在行われている作業に係る1つ以上の問合せの対象を抽出し、上記特定部で特定された1つ以上の問合せの対象から、抽出した1つ以上の問合せの対象と同じ問合せの対象を選択し、選択した問合せの対象の各々に対応する判定モデル情報を上記記憶部から選択する。
上記構成では、例えば、現在の作業に関係のない問合せの対象を排除することで、判定の精度を高めることができる。また、上記構成では、問合せの対象が絞り込まれるので、例えば、判定を行う回数を削減することができ、判定の結果を作業者に出力するまでの時間を短縮することができる。
撮影装置で取得された映像と、誤りの作業の原因となる動作を検出可能な検出モデル(例えば、原因動作検出モデル)とを用いて、誤り作業の原因となる動作を検出する検出部(例えば、検出部811)を備え、上記出力部は、上記検出部により誤り作業の原因となる動作が検出された場合、作業を確認するための問合せを促す情報(例えば、アラート910)を出力する。
上記構成では、誤りの作業の原因となる動作が検出されたときに、問合せが促されるので、例えば、誤りの作業が実施されてしまう頻度を低減することができる。
誤りの作業の原因となる動作に係る映像を保持する保持部(例えば、記憶部112、記憶部112とは異なる記憶部)と、上記保持部に保持された映像をもとに、誤りの作業の原因となる動作を検出するように上記検出部が用いる検出モデルを学習する学習部(例えば、学習部1311)と、を備える。
上記構成では、誤った作業が行われた履歴をもとに検出モデルが学習されるので、作業支援システムは、例えば、誤りの作業の原因となる可能性の高い新たな動作を検出できるようになる。また、例えば、上記構成では、検出モデルが学習されるので、問合せがより高い精度で促されるようになるので、誤りの作業が実施されてしまう頻度を更に低減することができる。
作業者の音声から問合せの内容を特定し、問合せの内容毎に、1つ以上の問合せの対象が規定された情報(例えば、問合せデータベース1013)を参照し、特定した問合せの内容に対応する1つ以上の問合せの対象を決定する決定部(例えば、決定部1012)を備え、上記特定部は、上記決定部により決定された1つ以上の問合せの対象の各々と、特定した1つ以上の問合せの対象の各々とが一致する場合、特定した1つ以上の問合せの対象を上記選択部に通知する(例えば、S1105参照)。
上記構成では、例えば、問合せの内容に沿った問合せの対象となっているかが判定されるので、問合せに対する回答の精度を高めることができる。
上記特定部は、作業者からの問合せの対象として、作業に係る物体を複数特定した場合、上記複数の物体のうち所定の物体を特定するための上記作業者の動作(例えば、特定の補助動作)を検出したときは、上記所定の物体を上記選択部に通知する。
上記構成では、問合せの物体と関係のない物体を排除することで、判定の精度を高めることができる。また、上記構成では、問合せの物体が絞り込まれるので、例えば、判定を行う回数を削減することができ、作業者に判定の結果を出力するまでの時間を短縮することができる。
また上述した構成については、本発明の要旨を超えない範囲において、適宜に、変更したり、組み替えたり、組み合わせたり、省略したりしてもよい。
「A、B、およびCのうちの少なくとも1つ」という形式におけるリストに含まれる項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができると理解されたい。同様に、「A、B、またはCのうちの少なくとも1つ」の形式においてリストされた項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができる。
100……作業支援システム、114……特定部、115……選択部、116……判定部、117……出力部。

Claims (6)

  1. 撮影装置で取得された映像から、作業者からの問合せの対象を特定する特定部と、
    問合せの対象毎に、問合せの対象が正しいか否かを判定するための判定モデルで用いられる判定モデル情報を記憶する記憶部から、前記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を選択する選択部と、
    前記選択部により選択された、前記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を前記判定モデルに設定した各判定モデルを用いて、前記問合せの対象の各々について正しいか否かを判定する判定部と、
    前記判定部により判定された結果を出力する出力部と、
    撮影装置で取得された映像と、誤りの作業の原因となる動作を検出可能な検出モデルとを用いて、誤り作業の原因となる動作を検出する検出部と、
    を備え
    前記出力部は、前記検出部により誤り作業の原因となる動作が検出された場合、作業を確認するための問合せを促す情報を出力する、
    作業支援システム。
  2. 前記選択部は、作業毎に、作業に係る1つ以上の問合せの対象が規定された情報から、現在行われている作業に係る1つ以上の問合せの対象を抽出し、前記特定部で特定された1つ以上の問合せの対象から、抽出した1つ以上の問合せの対象と同じ問合せの対象を選択し、選択した問合せの対象の各々に対応する判定モデル情報を前記記憶部から選択する、
    請求項1に記載の作業支援システム。
  3. 誤りの作業の原因となる動作に係る映像を保持する保持部と、
    前記保持部に保持された映像をもとに、誤りの作業の原因となる動作を検出するように前記検出部が用いる検出モデルを学習する学習部と、
    を備える請求項に記載の作業支援システム。
  4. 作業者の音声から問合せの内容を特定し、問合せの内容毎に、1つ以上の問合せの対象が規定された情報を参照し、特定した問合せの内容に対応する1つ以上の問合せの対象を決定する決定部を備え、
    前記特定部は、前記決定部により決定された1つ以上の問合せの対象の各々と、特定した1つ以上の問合せの対象の各々とが一致する場合、特定した1つ以上の問合せの対象を前記選択部に通知する、
    請求項1に記載の作業支援システム。
  5. 前記特定部は、作業者からの問合せの対象として、作業に係る物体を複数特定した場合、前記複数の物体のうち所定の物体を特定するための前記作業者の動作を検出したときは、前記所定の物体を前記選択部に通知する、
    請求項1に記載の作業支援システム。
  6. 特定部が、撮影装置で取得された映像から、作業者からの問合せの対象を特定することと、
    選択部が、問合せの対象毎に、問合せの対象が正しいか否かを判定するための判定モデルで用いられる判定モデル情報を記憶する記憶部から、前記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を選択することと、
    判定部が、前記選択部により選択された、前記特定部で特定された1つ以上の問合せの対象の各々に対応する判定モデル情報を前記判定モデルに設定した各判定モデルを用いて、前記問合せの対象の各々について正しいか否かを判定することと、
    出力部が、前記判定部により判定された結果を出力することと、
    検出部が、撮影装置で取得された映像と、誤りの作業の原因となる動作を検出可能な検出モデルとを用いて、誤り作業の原因となる動作を検出することと、
    を含み、
    前記出力部は、前記検出部により誤り作業の原因となる動作が検出された場合、作業を確認するための問合せを促す情報を出力する、
    作業支援方法。
JP2020051389A 2020-03-23 2020-03-23 作業支援システムおよび作業支援方法 Active JP7299187B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020051389A JP7299187B2 (ja) 2020-03-23 2020-03-23 作業支援システムおよび作業支援方法
US17/119,388 US11474505B2 (en) 2020-03-23 2020-12-11 Work support system and work support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020051389A JP7299187B2 (ja) 2020-03-23 2020-03-23 作業支援システムおよび作業支援方法

Publications (2)

Publication Number Publication Date
JP2021149828A JP2021149828A (ja) 2021-09-27
JP7299187B2 true JP7299187B2 (ja) 2023-06-27

Family

ID=77747836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020051389A Active JP7299187B2 (ja) 2020-03-23 2020-03-23 作業支援システムおよび作業支援方法

Country Status (2)

Country Link
US (1) US11474505B2 (ja)
JP (1) JP7299187B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156577A (ja) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 生活支援ロボットによる色情報獲得方法
JP2008235504A (ja) 2007-03-20 2008-10-02 Mitsubishi Electric Corp 組立品検査装置
JP2011526706A (ja) 2008-04-21 2011-10-13 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー 使用者のジェスチャの検出結果に依存した、加工物の一回の測定の複数の結果の表示
JP2018022210A (ja) 2016-08-01 2018-02-08 株式会社日立製作所 作業動作指示装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075009A (ja) * 2017-10-18 2019-05-16 パナソニックIpマネジメント株式会社 作業支援システム、厨房支援システム、作業支援方法、及びプログラム
JP2019139570A (ja) * 2018-02-13 2019-08-22 株式会社東芝 判別装置、判別方法およびプログラム
JP7038642B2 (ja) * 2018-11-20 2022-03-18 株式会社日立製作所 作業習熟支援装置、及び作業習熟支援システム
NL2022213B1 (en) * 2018-12-14 2020-07-03 Wastiq B V Food waste detection method and system
WO2020240918A1 (ja) * 2019-05-28 2020-12-03 三菱電機株式会社 作業支援システム、作業支援方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156577A (ja) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 生活支援ロボットによる色情報獲得方法
JP2008235504A (ja) 2007-03-20 2008-10-02 Mitsubishi Electric Corp 組立品検査装置
JP2011526706A (ja) 2008-04-21 2011-10-13 カール・ツアイス・インダストリーエレ・メステクニク・ゲーエムベーハー 使用者のジェスチャの検出結果に依存した、加工物の一回の測定の複数の結果の表示
JP2018022210A (ja) 2016-08-01 2018-02-08 株式会社日立製作所 作業動作指示装置

Also Published As

Publication number Publication date
US20210294311A1 (en) 2021-09-23
US11474505B2 (en) 2022-10-18
JP2021149828A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
US10650042B2 (en) Image retrieval with deep local feature descriptors and attention-based keypoint descriptors
JP6892389B2 (ja) ビデオのための代表ビデオフレームの選択
JP7131921B2 (ja) 機械学習を用いたビデオ・フィードにおける自動化されたオブジェクト追跡
JP6941134B2 (ja) タスクを遂行することにおいてユーザを支援するための支援システム、方法、およびプログラム
JP7507574B2 (ja) インテリジェントな映像解析
WO2020039882A1 (ja) 判別装置及び機械学習方法
JP2017204094A (ja) 視線特定プログラム、視線特定装置、及び視線特定方法
JP7374756B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019149154A (ja) 情報処理装置、情報処理方法及びプログラム
JPWO2020026643A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2019101919A (ja) 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体
JP2021125266A (ja) 状態推定装置、システム、及び製造方法
US10861220B2 (en) Data acquisition and encoding process for manufacturing, inspection, maintenance and repair of a structural product
JP7299187B2 (ja) 作業支援システムおよび作業支援方法
CN106169057B (zh) 信息处理装置及方法
WO2019167775A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11317156B2 (en) Video analytics for modifying training videos for use with head-mounted displays
US10591906B2 (en) Manufacturing environment management system
JP7556463B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7336398B2 (ja) 工作機械システム、管理方法及び管理プログラム
WO2024075225A1 (ja) 制御装置、産業機械のシステム、実行履歴データ表示方法、及びプログラム
JP7500895B1 (ja) 作業管理装置、作業管理システム、および、作業管理方法
JP2023107293A (ja) 作業支援装置、作業支援装置の動作方法、及び動作プログラム
CN113095110B (zh) 人脸数据动态入库的方法、装置、介质及电子设备
JP2023168384A (ja) 作業分析システム、作業分析装置、作業分析方法及び作業分析プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230615

R150 Certificate of patent or registration of utility model

Ref document number: 7299187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150