JPWO2019106987A1 - 作業支援システム、作業支援方法及びプログラム - Google Patents

作業支援システム、作業支援方法及びプログラム Download PDF

Info

Publication number
JPWO2019106987A1
JPWO2019106987A1 JP2019557058A JP2019557058A JPWO2019106987A1 JP WO2019106987 A1 JPWO2019106987 A1 JP WO2019106987A1 JP 2019557058 A JP2019557058 A JP 2019557058A JP 2019557058 A JP2019557058 A JP 2019557058A JP WO2019106987 A1 JPWO2019106987 A1 JP WO2019106987A1
Authority
JP
Japan
Prior art keywords
work
sensor
support system
area
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019557058A
Other languages
English (en)
Inventor
伸行 刀根
伸行 刀根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2019106987A1 publication Critical patent/JPWO2019106987A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明の課題は、作業プロセスを容易に生成することが可能な作業支援システム、作業支援方法及びプログラムを提供することである。作業支援システム(1)は、センサ(2)と、生成部(3)と、を備える。センサ(2)は、作業領域内に設定された自動検知領域内に存在する物体を検知する。生成部(3)は、センサ(2)の出力に基づいて、作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する。

Description

本発明は、一般に作業支援システム、作業支援方法及びプログラムに関し、より詳細には、作業プロセスを生成する作業支援システム、作業支援方法及びプログラムに関する。
従来、作業領域に適用される作業検知システムが提案されている(特許文献1)。
特許文献1に記載された作業検知システムは、距離画像センサと、検知装置と、報知装置と、設定装置と、を備えている。距離画像センサは、作業領域の距離画像を出力する。検知装置は、距離画像に現れる作業主体又は作業主体が扱うワークを検知対象とし、距離画像をもとに作業内容の異常を検知すると報知命令を出力する。報知装置は、報知命令が入力されると報知動作を行う。設定装置は、距離画像内で検知装置が検知対象の存否を検知する複数の検知領域及びその検知順序を設定する。
検知装置は、設定装置の機能を有する設定部を備えている。設定部は、例えば作業者が入力装置を用いて入力した内容をもとに、距離画像内で検知対象の存否を検知する検知領域と、その検知順序を設定する。
特許文献1に記載された作業検知システムでは、設定作業者が、入力装置を操作し、作業工程に基づいて各工程で作業者が検知される検知領域とその検知順序とを設定する必要があり、作業プロセスの生成に手間がかかっていた。
特開2013−25478号公報
本発明の目的は、作業プロセスを容易に生成することが可能な作業支援システム、作業支援方法及びプログラムを提供することにある。
本発明に係る一態様の作業支援システムは、センサと、生成部と、を備える。前記センサは、作業領域内に設定された自動検知領域内に存在する物体を検知する。前記生成部は、前記センサの出力に基づいて、前記作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する。
本発明に係る一態様の作業支援方法は、作業領域内に設定された自動検知領域内に存在する物体を検知するセンサの出力に基づいて、前記作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する。
本発明に係る一態様のプログラムは、コンピュータシステムに、作業領域内に設定された自動検知領域内に存在する物体を検知するセンサの出力に基づいて、前記作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する処理を実行させる。
図1は、本発明の一実施形態に係る作業支援システムのブロック図である。 図2は、同上の作業支援システムの生成部で生成された作業プロセスに基づいて作業者が作業する様子を説明するための斜視図である。 図3は、同上の作業支援システムで用いる距離画像の一例を示す図である。 図4は、同上の作業支援システムで用いるカラー画像の一例を示す図である。 図5は、同上の作業支援システムにおいて検知領域の設定方法を説明する概念図である。
(実施形態)
(1)概要
本実施形態に係る作業支援システム1は、作業領域11で作業を行う作業者100(図2参照)を支援するためのシステムである。
作業支援システム1は、センサ2と、生成部3と、を備える。作業支援システム1では、作業者100が予め決められた作業順序で作業領域11内での作業を行い、センサ2により、作業領域11内に設定された3次元検知領域12(図2参照)内に存在する物体(作業者100の手、部品等)を検知する。ここにおいて、物体を検知するとは、物体の動きを検知すること、物体の存否を検知すること、等である。生成部3は、センサ2の出力に基づいて、作業領域11内の複数の作業イベントの順序を含む作業プロセスを生成する。
(2)構成
(2.1)作業支援システムの全体構成
本実施形態に係る作業支援システム1は、例えば、図2に示すように、セル生産方式で作業する作業者100を支援するために用いられるシステムである。セル生産方式では、作業者100は、作業台15上の複数(4つ)のパーツボックス13から予め決められた作業順序で部品を取り出し、製品を組み立てる。以下では、説明の便宜上、4つのパーツボックス13を、図の左側から順に、パーツボックス131、パーツボックス132、パーツボックス133、パーツボックス134と称することもある。4つのパーツボックス131〜134には互いに異なる部品が入っている。セル生産方式では、一例として、互いに異なる4つの部品を組み立てることによって製品が完成するようになっている。
本実施形態に係る作業支援システム1は、図1に示すように、センサ2と、生成部3と、を備える。また、作業支援システム1は、提示部4と、編集部5と、ユーザインタフェース6と、設定部7と、ガイド情報提示部8と、を更に備える。作業支援システム1は、制御部9と、記憶部10と、を更に備える。制御部9は、生成部3、提示部4、編集部5、ユーザインタフェース6、設定部7及びガイド情報提示部8を制御する。記憶部10は、設定部7にて設定された3次元検知領域12(図2参照)、生成部3にて生成された作業プロセス、ガイド情報提示部8で提示する作業ガイド情報等に関する情報を記憶する。
作業支援システム1は、生成部3において作業プロセスを生成する第1モードと、生成部3において生成された作業プロセスを使用する第2モードと、がある。ここにおいて、作業支援システム1では、第1モードのときは制御部9によって生成部3が制御されて作業プロセスが生成される。作業支援システム1では、第2モードのときは制御部9によってガイド情報提示部8が制御されて、ガイド情報提示部8が、作業プロセスに従って作業者100のための作業ガイド情報を作業領域11に提示する(作業ガイド情報を作業台15の上面151上に表示する)。
センサ2は、作業領域11内に設定された3次元検知領域12内に存在する物体を検知する。生成部3は、センサ2の出力に基づいて、作業領域11内の複数の作業イベントの順序を含む作業プロセスを生成する。提示部4は、作業プロセスを提示する。編集部5は、ユーザインタフェース6からの入力情報に基づいて作業プロセスを編集する。設定部7は、自動検知領域14(図4参照)をユーザインタフェース6からの入力情報に従って設定する。ここにおいて、自動検知領域14は、作業領域11内に設定される。自動検知領域14は、距離画像又はイメージ画像の動画から所定の検知条件を満たす作業イベントが自動検知される領域である。また、設定部7は、センサ2の出力に基づいて、3次元検知領域12を設定する。ガイド情報提示部8は、作業プロセスに従って複数の作業ガイド情報を順次提示する。
作業領域11は、作業者100が作業を行う作業台15上の領域(3次元領域)を含む。作業領域11は、作業台15の上面151、作業台15上の複数のパーツボックス13等を含む。複数の3次元検知領域12は、例えば、複数のパーツボックス13に一対一に対応する。以下では、説明の便宜上、4つの3次元検知領域12を、図2の左側から順に、3次元検知領域121、3次元検知領域122、3次元検知領域123、3次元検知領域124と称することもある。4つの3次元検知領域121、122、123及び124は、4つのパーツボックス131、132、133及び134にそれぞれ対応している。作業者100から見て、4つの3次元検知領域121、122、123及び124は、4つのパーツボックス131、132、133及び134それぞれの手前側に設定された領域である。4つの3次元検知領域121、122、123及び124は、4つのパーツボックス131、132、133及び134それぞれの一部に重なって設定されているが、これに限らず、4つのパーツボックス131、132、133及び134それぞれに重なっていなくてもよい。
センサ2は、例えば、作業領域11の上方に配置される。センサ2は、例えば、作業台15に設けられた支持部16に支持されることで、作業領域11の上方に配置される。センサ2は、距離画像センサ21(図1参照)を含んでいる。距離画像センサ21は、作業領域11を上方から撮影して作業領域11の距離画像を出力する。ここにおいて、距離画像センサ21は、センサ2から作業領域11内に存在する物体までの距離値を画素値とする距離画像(距離画像の各画素の画素値は、距離値である)を連続的に生成する。これにより、センサ2は、物体の動き、物体の有無等を検知することができる。距離画像センサ21は、赤外光源と、赤外線カメラと、を含んでいる。距離画像センサ21は、例えば、TOF(Time Of Flight)方式の距離画像センサである。距離画像センサ21では、距離画像センサ21から作業領域11内に存在する物体までの距離は、赤外光源から作業領域11に赤外光が照射されてから物体で反射された赤外光が赤外線カメラに入射する(到達する)までの時間(飛行時間)によって求める。物体の高さ情報は、作業台15の上面151と距離画像センサ21との距離から、物体と距離画像センサ21との距離を引くことで算出される。距離画像センサ21は、TOF方式の距離画像センサに限らず、例えば、ステレオカメラ方式の距離画像センサ等であってもよい。
センサ2は、イメージセンサ22(図1参照)を含んでいる。イメージセンサ22は、例えば、CMOS(Complementary MOS)カラーイメージセンサである。イメージセンサ22は、作業領域11を上方から撮影して作業領域11のカラーのイメージ画像を出力する。ここにおいて、イメージセンサ22は、カラーのイメージ画像を連続的に生成する。センサ2では、略同時刻に距離画像センサ21とイメージセンサ22とでそれぞれ撮影された作業領域11の距離画像とカラーのイメージ画像とが一対一に対応している。なお、イメージセンサ22は、モノクロのイメージ画像を出力するセンサであってもよい。
生成部3、提示部4、編集部5、ユーザインタフェース6、設定部7及び制御部9は、例えば、プロセッサ及びメモリを主構成とするコンピュータシステムにて構成されている。言い換えれば、生成部3、提示部4、編集部5、設定部7及び制御部9は、プロセッサ及びメモリを有するコンピュータシステム(例えば、ノート型のパーソナルコンピュータ)にて実現されており、プロセッサがメモリに格納されているプログラムを実行することにより、コンピュータシステムが生成部3、提示部4、編集部5、ユーザインタフェース6、設定部7、制御部9及び記憶部10として機能する。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよいし、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ(磁気ディスク)等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
ユーザインタフェース6は、上述のパーソナルコンピュータの入力装置(キーボード、マウス等)により構成されている。提示部4は、上述のパーソナルコンピュータのディスプレイにより構成されており、自動検知領域14を設定するための設定画面、生成部3で生成された作業プロセス等を提示する。提示部4の提示内容(表示内容)は、制御部9によって制御される。編集部5については、生成部3について説明した後で、説明する。
設定部7は、センサ2の出力に基づいて、作業領域11内の3次元検知領域12を設定する。例えば、予め設定された自動検知領域14が、特定の高さ情報を有していない場合に、設定部7は、物体が自動検知領域14を通過したときの物体の高さ情報を自動検知領域14の情報に含めることで、3次元検知領域12を自動で設定する。また、自動検知領域14が特定の高さ情報を有している場合、設定部7は、センサ2の出力に基づいて、3次元検知領域12の3次元情報を自動で更新することにより、3次元検知領域12をより適切な範囲として設定することができる。
生成部3は、センサ2の出力に基づいて、作業領域11内の複数の作業イベントの順序を含む作業プロセスを生成する。生成部3では、第1モードにおいて、予め作業プロセスを生成するために作業プロセスの対象となる一連の作業(模範となる一連の作業)を特定の作業者が作業台15上で行ったときのセンサ2の出力に基づいて作業プロセスを生成する。作業支援システム1に作業プロセスを生成させるユーザは、一連の作業を特定の作業者が作業台15上で行ったときのセンサ2の出力(距離画像及びイメージ画像それぞれの動画)を予め記録媒体に録画し、作業支援システム1に、記録媒体に録画された動画を利用して作業プロセスを生成させる。特定の作業者は、第2モードのときに作業を行う作業者100と同じ人であってもよい。
以下、作業支援システム1において作業プロセスを生成させるためのフローについて説明する。
ユーザは、ユーザインタフェース6を利用して上述のコンピュータシステムの提示部4に動画を提示させる。そして、ユーザは、ユーザインタフェース6を利用して、距離画像の動画を構成する複数の距離画像のうちの1つの距離画像を基準距離画像P0(図3参照)として選択する。言い換えれば、距離画像の動画から基準距離画像P0をキャプチャーする。基準距離画像P0は、例えば、特定の作業者の手が映っていない画像である。基準距離画像P0内には、作業台15の上面151及び複数のパーツボックス131〜134が映っている。
次に、ユーザは、ユーザインタフェース6を利用して、複数のイメージ画像のうち提示部4に提示されている基準距離画像P0に一対一に対応する1つのイメージ画像を基準画像P10(図4参照)として提示部4に提示させ、基準画像P10に対して自動検知領域14の設定を行う。ユーザは、複数のパーツボックス13に一対一に対応する複数の自動検知領域14を、ユーザインタフェース6を利用して設定する。例えば、ユーザは、マウスによって基準画像P10上の範囲を指定することにより、自動検知領域14を設定することができる。4つの自動検知領域14を、図4の左側から順に、自動検知領域141、自動検知領域142、自動検知領域143、自動検知領域144と称することもある。自動検知領域14は、2次元領域でも、3次元領域でもよい。自動検知領域14は、自動検知における検知条件として、例えば、高さ、面積又は体積等の情報を含む。また、自動検知におけるその他の検知条件としては、例えば、色、時間範囲、滞在時間、動作方向、複数の検知領域の同時又は順不同のグループ設定等である。ここで、時間範囲は、作業プロセスが実行されている作業時間中において検知条件として使用する指定範囲の時間である。作業時間は、例えば、作業プロセスの開始時点から終了時点までの時間である。時間範囲は、例えば、作業プロセスの開始時点から3秒後の時点と12秒後の時点との間の範囲である。また、複数の検知領域の同時グループ設定では、例えば、複数の検知領域が第1検知領域と第2検知領域とを含むとき、第1検知領域の作業イベントと第2検知領域の作業イベントとが同時に行われた場合のみ検知するという条件である。また、複数の検知領域の順不同グループ設定では、例えば、複数の検知領域が第1検知領域と第2検知領域とを含むとき、第1検知領域の作業イベントと第2検知領域の作業イベントとのどちらが先に行われた場合にも検知するという条件である。なお、自動検知領域14の設定は、イメージ画像ではなく、距離画像を用いて設定してもよい。
次に、ユーザは、ユーザインタフェース6を利用して距離画像の動画の再生、3次元検知領域12の設定及び自動検知領域14で実行される作業イベントのフレームの生成を指示する。これにより、設定部7は、距離画像の動画から3次元検知領域12を自動で設定する。フレームは、特定の作業を行う内容が記録された処理枠である。3次元検知領域12は、距離画像において、実空間の自動検知領域14に対応する領域である。ここにおいて、設定部7は、距離画像において自動検知領域14に対応する領域と、当該領域に入った物体(特定の作業者の手)に関する情報に基づいて高さ方向の距離情報と、を含む3次元検知領域12を設定する。
制御部9は、フロー生成(作業プロセス生成)の指示を受け付けると、生成部3に作業プロセスを生成させる。
生成部3は、距離画像又はイメージ画像の動画から自動検知領域14で検知される作業イベントのフレームを自動で生成する。
図5の横軸は、録画された動画の時間軸である。図5に示した例では、作業プロセスは、複数(4つ)の作業イベント(工程)を含む。4つの作業イベントは、例えば、パーツボックス131から部品を取り出す作業イベント(以下、作業Aともいう)、パーツボックス132から部品を取り出す作業イベント(以下、作業Bともいう)、パーツボックス133から部品を取り出す作業イベント(以下、作業Cともいう)、及びパーツボックス134から部品を取り出す作業イベント(以下、作業Dともいう)である。生成部3は、それぞれの作業イベントが実行される順に、作業イベントのフレームを自動で生成する。
図5に示す例では、作業プロセスは、例えば、作業イベントを行う順序を示すフローであり、「パーツボックス131から部品を取る」→「パーツボックス132から部品を取る」→「パーツボックス134から部品を取る」→「パーツボックス133から部品を取る」の順序のフローである。作業プロセスは、例えば、「パーツボックス131」→「パーツボックス132」→「パーツボックス134」→「パーツボックス133」の順序のフローであってもよい。各作業イベントの内容(「パーツボックス131から部品を取る」等)は、ユーザインタフェース6を利用してあらかじめ生成部3に設定しておいてもよい。自動検知領域14に対応する作業イベントが予め生成部3に設定されている場合、作業支援システム1は、生成部3において、対応する作業イベントのフレームに作業イベントの内容を自動で紐付けることができる。
生成部3は、図5に示すように、自動検知領域141、自動検知領域142、自動検知領域144、自動検知領域143の順に、それぞれに対応する作業イベントのフレームを自動で生成する。自動検知領域141に対応するフレームは、3次元検知領域121に対応する。自動検知領域142に対応するフレームは、3次元検知領域122に対応する。自動検知領域144に対応するフレームは、3次元検知領域124に対応する。自動検知領域143に対応するフレームは、3次元検知領域123に対応する。
このように、生成部3は、作業領域11内の複数の作業イベントの順序を含む作業プロセスを、センサ2の出力に基づいて検知対象の物体(作業者100の手)が検知された3次元検知領域12の順序に従って生成する。より詳細には、生成部3は、複数の3次元検知領域12に一対一で対応する複数の自動検知領域14に関して検知対象の物体が検知された順序に従って作業イベントの順序を決めた作業プロセスを生成する。
設定部7は、基準距離画像P0(図3参照)の各画素の画素値から距離画像の各画素の画素値を減算した差分値に基づいて物体を検知でき、かつ、物体に関する情報の1つとして物体の高さを求めることができる。設定部7は、例えば、上記の差分値が閾値以上の画素数が所定数以上あれば、検知対象の物体があると判断し、上記の差分値が閾値以上の画素数が所定数未満であれば検知対象の物体がないと判断する。つまり、設定部7は、距離画像センサ21から出力される距離画像に基づいて検知対象の物体(作業者100の手、部品等)を検知する機能を有している。設定部7は、上下方向における3次元検知領域12の範囲を、検知対象の物体の高さの情報に基づいて設定する。設定部7は、距離画像、又は基準距離画像P0と当該基準距離画像P0以外の距離画像との差分画像にパターンマッチング等の処理を施して検知対象の物体を検知するように構成されていてもよい。
次に、ユーザは、ユーザインタフェース6を利用して、提示部4に提示されている3次元検知領域編集用の画面において3次元検知領域12の編集を行うことができる。3次元検知領域12の編集は、例えば、自動で設定した3次元検知領域12の高さ情報を手動で修正する。また、設定部7において3次元検知領域12の高さ情報を自動で設定しない場合は、ユーザは、ユーザインタフェース6を利用して、高さ情報を手動で、設定することができる。ユーザは、例えば、ユーザインタフェース6のマウス、キーボード等を利用して3次元検知領域12の変更、追加、削除を指示することができる。また、ユーザは、3次元検知領域12の範囲の変更、追加又は削除を行うこともできる。
なお、生成部3では、3次元検知領域12の設定と自動検知領域14で実行される作業イベントのフレームの生成は、同時に実行しても、別で実行してもよい。
作業支援システム1のユーザは、ユーザインタフェース6及び編集部5を利用することにより、生成部3が自動で生成したフレームに作業イベントの内容を入力することができる。作業イベントの内容は、例えば、「パーツボックスから部品を取る」等の作業内容である。また、ユーザは、生成部3が自動で生成したフレームからなる作業プロセスに、作業イベントを追加することができる。また、ユーザは、生成部3が自動で生成したフレームからなる作業プロセスから、フレームを削除することができる。また、ユーザは、3次元検知領域12における物体の検知条件を、対応する作業イベントのフレームに設定することができる。3次元検知領域12の検知条件とは、例えば、色、時間範囲、滞在時間、動作方向、複数の検知領域の同時又は順不同のグループ設定等である。ここで、時間範囲は、作業プロセスが実行されている作業時間中において検知条件として使用する指定範囲の時間である。作業時間は、例えば、作業プロセスの開始時点から終了時点までの時間である。時間範囲は、例えば、作業プロセスの開始時点から3秒後の時点と12秒後の時点との間の範囲である。また、複数の検知領域の同時グループ設定では、例えば、複数の検知領域が第1検知領域と第2検知領域とを含むとき、第1検知領域の作業イベントと第2検知領域の作業イベントとが同時に行われた場合のみ検知するという条件である。また、複数の検知領域の順不同グループ設定では、例えば、複数の検知領域が第1検知領域と第2検知領域とを含むとき、第1検知領域の作業イベントと第2検知領域の作業イベントとのどちらが先に行われた場合にも検知するという条件である。
なお、3次元検知領域12の検知条件としての滞在時間は、作業プロセス生成時において自動検知領域14に物体が存在していた時間(滞在時間)であってもよい。このとき、設定部7は、自動検知領域14における物体の滞在時間を、3次元検知領域12における物体の検知条件として自動で設定してもよい。このとき、滞在時間を計時する計時部は、上述のパーソナルコンピュータの備えているタイマにより構成されている。また、設定部7は、滞在時間を、動画のフレームレートを用いて計算してもよい。ユーザは、提示部4に提示された作業プロセスを、例えば、文章、描画、画像、動画、記号等を使って編集することができる。
なお、複数の作業イベントに対応するフレームは、時間軸に対して並列に設定してもよい。例えば、パーツボックス131から部品を取る作業とパーツボックス132から部品を取る作業を同時に行う場合、又は、順不同で行う場合、パーツボックス131、132に対応する自動検知領域141、142から抽出されるフレームは、時間軸に対して並列に設定することができる。
作業支援システム1のガイド情報提示部8は、作業領域11の上方において上下方向においてセンサ2と重ならないように配置されている。ガイド情報提示部8は、上述の第2モードにおいて作業プロセスに従って作業ガイド情報を作業領域11に順次提示する。ガイド情報提示部8は、作業台15の上面151を含む投影面(表示面)に映像を投影するように構成されている。
ガイド情報提示部8は、例えば、プロジェクタである。ガイド情報提示部8は、作業領域11に向かって作業ガイド情報(映像)を投影するように配置されている。作業ガイド情報は、作業台15の上面151のうち複数のパーツボックス13のうち部品を取り出す1つのパーツボックス13の3次元検知領域12に対応する領域に、例えば色付の矢印等の図形17(図2参照)で提示される。したがって、作業支援システム1では、作業者100が作業中と同様の姿勢のまま作業ガイド情報を見ることができる。作業ガイド情報は、図形17に限らず、文章(例えば、「部品を取って」等)でもよいし、図形17と文章との両方であってもよい。図形17は、矢印に限らず、例えば、長方形でもよい。また、作業ガイド情報は、矢印又は長方形以外の図形であってもよいし、動画、写真等であってもよい。ガイド情報提示部8の動作は、制御部9によって制御される。作業支援システム1では、制御部9が、ガイド情報提示部8による作業ガイド情報の提示、非提示のタイミングを制御する。ここにおいて、制御部9は、例えば、第1モードで作成した作業プロセスにより予め決められた順序で複数の作業ガイド情報を1つずつ提示させる。複数の作業ガイド情報の1つ1つは、複数の作業イベントの1つ1つに対応している。1つの作業ガイド情報を所定時間だけ提示させてから非提示とした後に、次の1つの作業ガイド情報を提示させるまでの間隔は、適宜設定すればよい。また、作業者100の動作の完了を3次元検知領域12及び検知条件で検知した後で、作業ガイド情報の提示を切り換えてもよい。作業支援システム1では、センサ2は、ガイド情報提示部8による作業領域11への作業ガイド情報の提示(投影)を妨げないように配置されている。ガイド情報提示部8は、投影光がセンサ2に照射されないように配置されている。
作業支援システム1は、第2モードのとき、センサ2の出力を作業支援に利用する。作業支援システム1では、第2モードで動作しているときに、制御部9が、センサ2の出力に基づいて、作業の異常の有無を判断し、異常が有る場合にその旨を作業者に通知するようにしてもよい。
作業の異常としては、例えば、作業ガイド情報によって提示された作業ガイド情報による作業とは異なった作業が行われた場合、作業ガイド情報が提示されてから当該作業ガイド情報に従った作業が行われるまでの時間が上記の規定時間を超えている場合等である。作業ガイド情報による作業とは異なった作業が行われた場合としては、例えば、図2における左端のパーツボックス131から部品を取るように指示されたのに対して、作業者100が図2における左から2番目のパーツボックス132から部品を取った場合がある。
作業者100への通知は、制御部9がガイド情報提示部8を制御することによって行ってもよいし、制御部9が音声発生装置、表示装置等を制御することによって行ってもよい。また、作業支援システム1では、第2モードで動作しているときに、制御部9は、センサ2の出力に基づいて、作業ガイド情報に従った作業が行われたことを検知するまで、作業ガイド情報を提示させたままにしてもよい。また、作業支援システム1は、例えば、第2モードで動作させるときに計測器と連係動作させてもよく、計測器からの信号をトリガとして作業ガイド情報を提示させてもよい。
作業支援システム1では、作業者100が、作業領域11で作業を行うときに作業領域11に提示された作業ガイド情報を見ることができる。作業支援システム1を第2モードで動作させているときには、作業者100は、ガイド情報提示部8によって提示された作業ガイド情報に従って作業を行えばよい。これにより、作業者100は、作業プロセスに容易に適応することが可能となる。複数の作業者100間の生産量の差を小さくすることが可能となる。また、作業者100が、多品種の製品ごとに異なる作業プロセスに容易に適応することが可能となる。また、作業支援システム1を利用することにより、複数の作業者100の作業内容の標準化を図れる。
以上説明した実施形態は、本発明の様々な実施形態の一つに過ぎない。実施形態は、本発明の目的を達成できれば、設計等に応じて種々の変更が可能である。また、作業支援システム1と同様の機能は、作業支援方法又はプログラム(コンピュータプログラム)で具現化されてもよい。
一態様に係る作業支援方法は、作業領域11内に設定された自動検知領域14内に存在する物体を検知するセンサ2の出力に基づいて、作業領域11内の複数の作業イベントの順序を含む作業プロセスを生成する。
また、一態様に係るプログラムは、コンピュータシステムに、作業領域11内に設定された自動検知領域14内に存在する物体を検知するセンサ2の出力に基づいて、作業領域11内の複数の作業イベントの順序を含む作業プロセスを生成する処理を実行させる。
以下、上記の実施形態の変形例を列挙する。
センサ2の検知対象は、作業者100の手に限らず、例えば、部品、製品等であってもよい。
また、センサ2は、距離画像センサ21とイメージセンサ22との両方を備えた構成に限らず、距離画像センサ21とイメージセンサ22とのうち一方だけを備えた構成でもよい。また、センサ2は、距離画像センサ21とイメージセンサ22との少なくとも一方を備えた構成に限らず、例えば、複数の3次元検知領域12ごとに設けられた複数のピッキングセンサであってもよい。
また、作業領域11では、複数のパーツボックス13のうちの少なくとも2つのパーツボックス13が上下方向において重なって配置されていてもよい。
また、ガイド情報提示部8は、プロジェクタに限らず、例えば、作業台15の上面151を含む天板に埋め込まれたディスプレイでもよい。
また、作業支援システム1は、センサ2及び生成部3の他に、提示部4、編集部5、ユーザインタフェース6、設定部7、ガイド情報提示部8、制御部9及び記憶部10を備え得いるが、センサ2及び生成部3以外は必須の構成ではなく、適宜、省略可能である。また、提示部4、編集部5、ユーザインタフェース6、設定部7、ガイド情報提示部8、制御部9及び記憶部10は、それぞれが互いの機能を分担して実行していてもよい。
また、作業支援システム1は、生成部3で生成された作業プロセスをスマートフォン等の端末に送信してもよいし、記録媒体に記録させるようにしてもよい。
作業支援システム1で想定する作業は、製造ラインでの手組に限らない。例えば、作業は、製造ラインでの製品又は部品の良品、不良品の選別作業、梱包作業、調理、掃除等であってもよい。
また、作業支援システム1が備える生成部3の少なくとも一部の機能は、例えば、クラウドコンピューティング(Cloud Computing)におけるサーバ装置によって実現されてもよい。
(まとめ)
以上説明した実施形態等から以下の態様が開示されている。
第1の態様に係る作業支援システム(1)は、センサ(2)と、生成部(3)と、を備える。センサ(2)は、作業領域(11)内に設定された自動検知領域(14)内に存在する物体を検知する。生成部(3)は、センサ(2)の出力に基づいて、作業領域(11)内の複数の作業イベントの順序を含む作業プロセスを生成する。
第1の態様に係る作業支援システム(1)では、作業プロセスを容易に生成することが可能となる。
第2の態様に係る作業支援システム(1)は、第1の態様において、作業プロセスを提示する提示部(4)を更に備える。
第2の態様に係る作業支援システム(1)では、作業プロセスを提示することができるので、ユーザが作業プロセスを確認することができる。
第3の態様に係る作業支援システム(1)は、第1又は2の態様において、センサ(2)は、センサ(2)から自動検知領域(14)に存在する物体までの距離値を画素値とする距離画像を連続的に生成する距離画像センサ(21)を含む。
第3の態様に係る作業支援システム(1)では、センサ(2)としてピッキングセンサを用いる場合に比べて作業者の作業性を向上させることが可能となる。
第4の態様に係る作業支援システム(1)は、第1〜3の態様のいずれか一つにおいて、センサ(2)は、イメージセンサ(22)を含む。
第4の態様に係る作業支援システム(1)では、ユーザがイメージセンサ(22)から出力される画像を見ながら自動検知領域(14)を設定することが可能となる。
第5の態様に係る作業支援システム(1)は、第1〜4の態様のいずれか一つにおいて、ユーザインタフェース(6)からの入力情報に基づいて作業プロセスを編集する編集部(5)を更に備える。
第5の態様に係る作業支援システム(1)では、ユーザがユーザインタフェースを利用して作業プロセスの編集を行うことが可能となる。
第6の態様に係る作業支援システム(1)は、第1〜5の態様のいずれか一つにおいて、3次元検知領域(12)をユーザインタフェース(6)からの入力情報に従って設定する設定部(7)を更に備える。
第6の態様に係る作業支援システム(1)では、3次元検知領域(12)をカスタマイズすることが可能となる。
第7の態様に係る作業支援システム(1)は、第1〜6の態様のいずれか一つにおいて、生成部(3)において作業プロセスを生成する第1モードと、生成部(3)において生成された作業プロセスを使用する第2モードと、があり、第2モードにおいてセンサ(2)の出力を作業支援に利用する。
第7の態様に係る作業支援システム(1)では、第1モードと第2モードとの両方で同じセンサ(2)を利用することができる。
第8の態様に係る作業支援システム(1)は、第7の態様において、第2モードにおいて作業プロセスに従って複数の作業ガイド情報を順次提示するガイド情報提示部(8)を更に備える。
第8の態様に係る作業支援システム(1)では、第2モードにおいて作業プロセスに従って複数の作業ガイド情報を順次提示することにより、作業支援することが可能となる。
第9の態様に係る作業支援方法は、作業領域(11)内に設定された自動検知領域(14)内に存在する物体を検知するセンサ(2)の出力に基づいて、作業領域(11)内の複数の作業イベントの順序を含む作業プロセスを生成する。
第9の態様に係る作業支援方法では、作業プロセスを容易に生成することが可能となる。
第10の態様に係るプログラムは、コンピュータシステムに、作業領域(11)内に設定された自動検知領域(14)内に存在する物体を検知するセンサ(2)の出力に基づいて、作業領域(11)内の複数の作業イベントの順序を含む作業プロセスを生成する処理を実行させる。
第10の態様に係るプログラムでは、作業プロセスを容易に生成することが可能となる。
1 作業支援システム
2 センサ
3 生成部
4 提示部
5 編集部
6 ユーザインタフェース
7 設定部
8 ガイド情報提示部
9 制御部
11 作業領域
12 3次元検知領域
14 自動検知領域
100 作業者

Claims (10)

  1. 作業領域内に設定された自動検知領域内に存在する物体を検知するセンサと、
    前記センサの出力に基づいて、前記作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する生成部と、を備える、
    作業支援システム。
  2. 前記作業プロセスを提示する提示部を更に備える、
    請求項1に記載の作業支援システム。
  3. 前記センサは、前記センサから前記自動検知領域に存在する物体までの距離値を画素値とする距離画像を連続的に生成する距離画像センサを含む、
    請求項1又は2に記載の作業支援システム。
  4. 前記センサは、イメージセンサを含む、
    請求項1〜3のいずれか一項に記載の作業支援システム。
  5. ユーザインタフェースからの入力情報に基づいて前記作業プロセスを編集する編集部を更に備える、
    請求項1〜4のいずれか一項に記載の作業支援システム。
  6. 3次元検知領域をユーザインタフェースからの入力情報に従って設定する設定部を更に備える、
    請求項1〜5のいずれか一項に記載の作業支援システム。
  7. 前記生成部において前記作業プロセスを生成する第1モードと、前記生成部において生成された前記作業プロセスを使用する第2モードと、があり、前記第2モードにおいて前記センサの出力を作業支援に利用する、
    請求項1〜6のいずれか一項に記載の作業支援システム。
  8. 前記第2モードにおいて前記作業プロセスに従って複数の作業ガイド情報を順次提示するガイド情報提示部を更に備える、
    請求項7に記載の作業支援システム。
  9. 作業領域内に設定された自動検知領域内に存在する物体を検知するセンサの出力に基づいて、前記作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する、
    作業支援方法。
  10. コンピュータシステムに、
    作業領域内に設定された自動検知領域内に存在する物体を検知するセンサの出力に基づいて、前記作業領域内の複数の作業イベントの順序を含む作業プロセスを生成する処理を実行させるための
    プログラム。
JP2019557058A 2017-11-29 2018-10-16 作業支援システム、作業支援方法及びプログラム Pending JPWO2019106987A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017229318 2017-11-29
JP2017229318 2017-11-29
PCT/JP2018/038401 WO2019106987A1 (ja) 2017-11-29 2018-10-16 作業支援システム、作業支援方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2019106987A1 true JPWO2019106987A1 (ja) 2020-11-19

Family

ID=66664887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019557058A Pending JPWO2019106987A1 (ja) 2017-11-29 2018-10-16 作業支援システム、作業支援方法及びプログラム

Country Status (3)

Country Link
JP (1) JPWO2019106987A1 (ja)
CN (1) CN111417976A (ja)
WO (1) WO2019106987A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118103307A (zh) * 2021-10-20 2024-05-28 爱鸥自动化系统有限公司 操作辅助装置和非暂时性存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080759A (ja) * 2007-09-27 2009-04-16 Park:Kk セル生産方式工程管理方法
JP2011134224A (ja) * 2009-12-25 2011-07-07 Honda Motor Co Ltd 組立作業支援システムおよびプログラム
JP2013025478A (ja) * 2011-07-19 2013-02-04 Panasonic Corp 作業検知システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9448407B2 (en) * 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
JP2014159988A (ja) * 2013-02-19 2014-09-04 Yaskawa Electric Corp 物体検出装置、ロボットシステム、及び物体検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080759A (ja) * 2007-09-27 2009-04-16 Park:Kk セル生産方式工程管理方法
JP2011134224A (ja) * 2009-12-25 2011-07-07 Honda Motor Co Ltd 組立作業支援システムおよびプログラム
JP2013025478A (ja) * 2011-07-19 2013-02-04 Panasonic Corp 作業検知システム

Also Published As

Publication number Publication date
CN111417976A (zh) 2020-07-14
WO2019106987A1 (ja) 2019-06-06

Similar Documents

Publication Publication Date Title
US10076840B2 (en) Information processing apparatus, information processing method, and program
US9535538B2 (en) System, information processing apparatus, and information processing method
US9811751B2 (en) Image pickup apparatus with boundary identifier for areas of interest
US20130113920A1 (en) Determining position in a projection capture system
JPWO2016132731A1 (ja) 作業支援装置、作業支援システム、作業支援方法及び作業支援プログラムを記憶する記録媒体
KR101827221B1 (ko) 좌표계 자동 보정이 가능한 혼합현실 콘텐츠 제공 장치 및 이를 이용한 좌표계 자동 보정 방법
US20190066734A1 (en) Image processing apparatus, image processing method, and storage medium
JPWO2019106987A1 (ja) 作業支援システム、作業支援方法及びプログラム
US10540816B2 (en) Information display system
US11989928B2 (en) Image processing system
JP6679847B2 (ja) 棚割情報生成装置、棚割情報生成システム、棚割情報生成方法、撮像装置、およびプログラム
JP2007315777A (ja) 三次元形状計測システム
JP6933273B2 (ja) 棚割情報生成システム
JP2011108251A (ja) プレゼンテーション制御装置及びプログラム
JPH07160412A (ja) 指示位置検出方法
KR20160093769A (ko) 공간 매칭 기법을 적용한 가상 콘텐츠 생성 방법 및 시스템
JP6948294B2 (ja) 作業異常検知支援装置、作業異常検知支援方法、および作業異常検知支援プログラム
KR101388668B1 (ko) 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
JP6835455B2 (ja) 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法
JP2021047698A (ja) 支援装置、支援装置の制御方法およびプログラム
JP7255644B2 (ja) 棚割情報生成システム、棚割情報生成方法、およびプログラム
US11636827B2 (en) Method for managing the display of a least one information item, and associated computer program product, information medium and display system
CN114363521B (zh) 图像处理方法、装置及电子设备
US11606541B2 (en) Projection control device, projection control method and projection control system
WO2024095340A1 (ja) 動画マニュアル作成装置、及び動画マニュアル作成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230627