JP7034340B2 - 作業支援システム - Google Patents

作業支援システム Download PDF

Info

Publication number
JP7034340B2
JP7034340B2 JP2020568910A JP2020568910A JP7034340B2 JP 7034340 B2 JP7034340 B2 JP 7034340B2 JP 2020568910 A JP2020568910 A JP 2020568910A JP 2020568910 A JP2020568910 A JP 2020568910A JP 7034340 B2 JP7034340 B2 JP 7034340B2
Authority
JP
Japan
Prior art keywords
unit
image
work
specific
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020568910A
Other languages
English (en)
Other versions
JPWO2020157821A1 (ja
Inventor
将則 増井
高志 林田
陽太 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Publication of JPWO2020157821A1 publication Critical patent/JPWO2020157821A1/ja
Application granted granted Critical
Publication of JP7034340B2 publication Critical patent/JP7034340B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

この発明は、作業指示を行う作業支援システムに関する。
従来、作業者は、製品に対して組立作業等の作業を行う場合、作業要領書又はチェックリスト等の書類或いはモニタを用いて作業指示を確認した上で、作業を行っている。
一方、書類又はモニタは、製品が置かれた作業領域とは異なる領域に置かれている。そのため、作業者は、作業指示を確認する度に製品から目を離して書類又はモニタ側に振り返る必要がある。また、製品を置く作業領域とは別に書類又はモニタを置く領域が必要となる。また、書類又はモニタによる作業指示では文字が用いられることが多いが、この場合、例えば言語の異なる作業員が混在する工場では翻訳が必要となる。そのため、文字による作業指示はグローバル化の観点から望ましくない。
これに対し、製品の特定箇所に円又は矢印等の2次元画像を投影するシステムが知られている(例えば特許文献1参照)。
また、作業者が装着するHMD(Head Mounted Display)等の装置に映像を投影して作業指示を行うシステムも知られている。
国際公開2016/084151号
しかしながら、製品に円又は矢印等の2次元画像を投影する方法では、作業箇所は指示可能であるが、例えば部品をどのように組付けるのかといった具体的な作業内容までは指示が困難である。よって、このシステムでは、別途、書類又はモニタによる作業指示が不可欠である。
また、HMD等の装置に映像を投影する方法では、当該装置を作業者毎に用意する必要があり、また、当該装置を装着した状態での作業は煩わしい。
この発明は、上記のような課題を解決するためになされたもので、作業者が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能な作業支援システムを提供することを目的としている。
この発明に係る作業支援システムは、作業領域で作業を行う作業者を撮像する第1撮像装置と、作業領域を撮像する第2撮像装置と、作業領域に入力画像を投影する投影装置と、第1撮像装置による撮像結果から作業者の位置を特定する第1特定部と、第2撮像装置による撮像結果から作業領域に存在する物体の位置を特定する第2特定部と、作業指示を表すアイコンである3次元データを順に抽出する抽出部と、第1特定部による特定結果及び第2特定部による特定結果に基づいて、抽出部により抽出された3次元データから、投影画像を一方向から見た際に立体視可能な疑似3次元画像を生成する画像生成部と、画像生成部により生成された疑似3次元画像を示すデータを投影装置に出力する出力部と、作業者による作業完了を確認して抽出部に対して次の3次元データの抽出を指示する確認指示部とを備えたことを特徴とする。
この発明によれば、上記のように構成したので、作業者が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能となる。
実施の形態1に係る作業支援システムの構成例を示す図である。 実施の形態1における演算装置の構成例を示す図である。 実施の形態1における演算装置の動作例を示すフローチャートである。 図4Aは、作業実施前の作業領域の一例を示す図であり、図4Bは実施の形態1における画像生成部及び制御部による投影領域の設定を説明するための図である。 図5Aは、第1の作業の作業指示を表す3次元データの一例を示す図であり、図5Bは、実施の形態1における画像生成部による図5Aに示す3次元データの変形を説明するための図である。 図6Aは、実施の形態1におけるプロジェクタにより第1の作業の作業指示を表す疑似3次元画像が投影された後、作業者が投影画像を見た際の状態を示す図であり、図6Bは、作業者以外の第三者が投影画像を作業者とは別の方向から見た場合を示す図である。 実施の形態1におけるプロジェクタにより第2の作業の作業指示を表す疑似3次元画像が投影された後、作業者が投影画像を見た際の状態を示す図である。 図8A、図8Bは、実施の形態1における演算装置のハードウェア構成例を示す図である。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1は実施の形態1に係る作業支援システムの構成例を示す図である。
作業支援システムは、作業領域で製品12に対して組立作業等の作業を行う作業者11に対し、作業指示を行う。作業支援システムは、図1に示すように、カメラ(第1撮像装置)1、カメラ(第2撮像装置)2、プロジェクタ(投影装置)3及び演算装置4を備えている。製品12は、台車13に載せられて作業領域に移動される場合、又は、作業領域に設けられた作業面14(図4等参照)に置かれる場合等がある。図1では、製品12が台車13に載せられた状態で作業領域に移動され、作業者11はこの台車13に載せられた製品12に対して作業を行う場合を示している。なお、1つの作業領域で作業を行う作業者11は1人であるとする。
カメラ1は、作業領域で作業を行う作業者11を撮像する。この際、カメラ1は、少なくとも作業者11の目を含む身体の一部(例えば目又は頭部)を撮像することが好ましい。カメラ1は、作業者11が位置すると想定される領域が撮像領域に含まれる位置に配置されている。なお、作業者11が位置すると想定される領域が撮像領域よりも広い場合、カメラ1は撮像位置及び撮像角度のうちの少なくとも一方を可変とする機構を有する必要がある。カメラ1としては、例えば赤外線カメラを用いることができる。このカメラ1により得られた画像データは、演算装置4に出力される。また、カメラ1が撮像位置及び撮像角度のうちの少なくとも一方を可変とする機構を有する場合、カメラ1は、上記画像データに加え、撮像を行った際の撮像位置及び撮像角度のうちの少なくとも一方を示すデータを、演算装置4に出力する。なお、演算装置4は、カメラ1の初期の撮像位置及び撮像角度を示すデータを予め保持している。
カメラ2は、作業領域を撮像する。カメラ2としては、例えば赤外線カメラを用いることができる。このカメラ2により得られた画像データは、演算装置4に出力される。なお、演算装置4は、カメラ2の撮像位置及び撮像角度を示すデータを予め保持している。
プロジェクタ3は、作業領域に入力画像を投影する。なお、作業者11の作業位置が固定である場合にはプロジェクタ3の投影位置及び投影角度は固定でもよいが、作業者11の作業位置が固定ではない場合には、プロジェクタ3は、投影位置及び投影角度のうちの少なくとも一方を可変とする機構を有する。なお、演算装置4は、プロジェクタ3の初期の投影位置及び投影角度を示すデータを予め保持している。
演算装置4は、カメラ1による撮像結果及びカメラ2による撮像結果に基づいて、疑似3次元画像の生成及びプロジェクタ3の制御を行う。疑似3次元画像は、作業指示を表す画像であって、プロジェクタ3により作業領域に投影された画像(投影画像)を人が特定の一方向から見た際に立体視可能な画像である。この演算装置4は、図2に示すように、記録部401、特定部(第1特定部)402、特定部(第2特定部)403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408を有している。
記録部401は、作業指示を表すアイコンである3次元データを記録する。この3次元データは、作業工程毎に存在し、作業工程順を示す識別情報に紐付けられて記録部401に記録される。
記録部401としては、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、又はDVD(Digital Versatile Disc)等が該当する。
なお図1では、記録部401が作業支援システムの内部に設けられた場合を示しているが、これに限らず、記録部401は作業支援システムの外部に設けられていてもよい。
特定部402は、カメラ1による撮像結果から作業者11の位置を特定する。この際、特定部402は、作業者11の位置として、少なくとも作業者11の目を含む身体の一部(例えば目又は頭部)の位置を特定することが好ましい。なお、特定部402は、カメラ1から画像データに加えて撮像位置及び撮像角度のうちの少なくとも一方を示すデータが出力された場合には、当該データも考慮して作業者11の位置を特定する。画像から作業者11の位置を特定する方法としては、従来から知られている各種方法を適用可能であり、その説明を省略する。また、特定部402は、カメラ1による撮像結果から、作業者11の位置に加え、作業者11の向きを特定してもよい。
特定部403は、カメラ2による撮像結果から作業領域に存在する物体の位置及び形状を特定する。上記物体としては、製品12、台車13又は作業面14等が挙げられる。画像から作業領域に存在する物体の位置及び形状を特定する方法としては、従来から知られている各種方法を適用可能であり、その説明を省略する。なお、特定部403は、カメラ2による撮像結果から、作業領域に存在する物体の位置及び形状に加え、物体の向きを特定してもよい。
抽出部404は、記録部401から3次元データを順に抽出する。具体的には、抽出部404は、まず、記録部401から最初の作業工程を示す識別情報に紐付けられた3次元データを抽出する。その後、抽出部404は、確認指示部408から指示を受ける度に、次の作業工程を示す識別情報に紐付けられた3次元データを順に抽出する。
画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて、抽出部404により抽出された3次元データから疑似3次元画像を生成する。この際、画像生成部405は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。なお、画像生成部405では、作業領域に存在する物体と作業箇所との位置関係が既知であるとする。そして、画像生成部405は、抽出部404により抽出された3次元データを変形する。この際、画像生成部405は、設定した投影領域にプロジェクタ3から疑似3次元画像を投影した場合に、特定部402により特定された作業者11の位置から投影画像を見た際に立体視されるように、3次元データを変形する。そして、画像生成部405は、変形した3次元データを2次元の画像に変換することで疑似3次元画像を生成する。
制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。この際、制御部406は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。制御部406で設定される投影領域は、画像生成部405で設定される投影領域と同じである。なお、制御部406では、作業領域に存在する物体と作業箇所との位置関係が既知であるとする。そして、制御部406は、設定した投影領域に投影可能なようにプロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。
なお、プロジェクタ3の投影位置及び投影角度が固定である場合には、制御部406は不要である。
出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する。
確認指示部408は、作業者11による作業完了を確認して抽出部404に対して次の3次元データの抽出を指示する。ここで、例えば、確認指示部408は、ユーザにより入力装置(不図示)を介して入力された作業完了通知を受付けることで、作業者11による作業完了の確認を行ってもよい。また、確認指示部408は、カメラ2による撮像結果を解析することで、作業者11による作業完了の確認を行ってもよい。
なお、演算装置4は、抽出部404により最後の作業工程を表す3次元データが抽出されている場合には、確認指示部408により作業者11による作業完了が確認された時点で処理を終了する。
次に、図1,2に示す演算装置4の動作例について、図3を参照しながら説明する。なお、記録部401には、作業工程毎の3次元データが記録されている。また、カメラ1及びカメラ2はそれぞれ、撮像を常時行い、得られた画像データを演算装置4に出力している。
演算装置4の動作例では、図3に示すように、まず、特定部402は、カメラ1による撮像結果から作業者11の位置を特定する(ステップST301)。ここでは、特定部402は、作業者11の位置として、少なくとも作業者11の目を含む身体の一部の位置を特定するものとする。なお、特定部402による処理は、カメラ1から演算装置4に画像データが入力される度に実施される。
また、特定部403は、カメラ2による撮像結果から作業領域に存在する物体の位置及び形状を特定する(ステップST302)。
また、抽出部404は、記録部401から3次元データを抽出する(ステップST303)。この際、抽出部404は、記録部401から、最初の作業工程を示す識別情報に紐付けられた3次元データを抽出する。
また、画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて、抽出部404により抽出された3次元データから疑似3次元画像を生成する(ステップST304)。この際、画像生成部405は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。そして、画像生成部405は、抽出部404により抽出された3次元データを変形する。この際、画像生成部405は、設定した投影領域にプロジェクタ3から疑似3次元画像を投影した場合に、特定部402により特定された作業者11の位置から投影画像を見た際に立体視されるように、3次元データを変形する。そして、画像生成部405は、変形した3次元データを2次元の画像に変換することで疑似3次元画像を生成する。なお、画像生成部405による処理は、特定部402により特定された作業者11の位置が変わる度に実施される。
次いで、制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する(ステップST305)。この際、制御部406は、まず、特定部402による特定結果及び特定部403による特定結果に基づいて、作業領域から、プロジェクタ3による投影領域を設定する。制御部406で設定される投影領域は、画像生成部405で設定される投影領域と同じである。そして、制御部406は、設定した投影領域に投影可能なようにプロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。これにより、プロジェクタ3の投影位置及び投影角度が設定される。なお、制御部406による処理は、特定部402により特定された作業者11の位置が変わる度に実施される。
次いで、出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する(ステップST306)。その後、プロジェクタ3は、この疑似3次元画像を作業領域に投影する。これにより、作業者11には投影画像が立体的に見える。その後、作業者11は、この投影画像が示す作業指示に従って製品12に対する作業を行う。
次いで、確認指示部408は、作業者11による作業完了を確認したかを判定する(ステップST307)。このステップST307において、確認指示部408が作業完了を確認していない場合には、シーケンスはステップST307に戻り待機状態となる。
一方、ステップST307において、確認指示部408は、作業完了を確認した場合、抽出部404により最後の作業工程を表す3次元データまで抽出されたかを判定する(ステップST308)。
このステップST308において、確認指示部408は、抽出部404により未抽出の3次元データがあると判定した場合には、抽出部404に対して次の3次元データの抽出を指示する(ステップST309)。その後、シーケンスはステップST302に戻る。なお、ステップST303では、抽出部404は、確認指示部408による指示に応じ、次の作業工程を示す識別情報に紐付けられた3次元データの抽出を行う。
一方、ステップST308において、確認指示部408が抽出部404により全ての3次元データが抽出されたと判定した場合には、シーケンスは終了する。
次に、実施の形態1に係る作業支援システムによる作業指示の具体例について示す。
図4~7では、作業者11が、第1の作業として作業領域における指定箇所に指定の向きで箱16を置き、第2の作業として箱16の上面四隅に対してネジ締めを行う場合を示す。以下では、図4Aに示すように、作業領域に置かれた作業面14上で作業者11が作業を行う場合を示し、箱16の位置決めのため作業面14上に製品12の一部である板金部品15が置かれているものとする。
この場合、まず、作業支援システムは第1の作業を支援する。
具体的には、まず、特定部402は、カメラ1による撮像結果から少なくとも作業者11の目を含む身体の一部の位置を特定する。また、特定部403は、カメラ2による撮像結果から板金部品15の位置及び形状を特定する。なお図4Bでは、符号101に示すように、画像生成部405及び制御部406が、作業領域から、板金部品15の一部が位置する領域(板金部品15が有する二つの面)をプロジェクタ3による投影領域に設定している。また、抽出部404は、図5Aに示すように、記録部401から、作業領域における指定箇所に指定の向きで箱16を置くことを表す3次元データを抽出する。図5Aに示す3次元データは、箱16を表す3次元モデルと、箱16を置くことを表す下向き矢印の3次元モデルとから構成されている。次いで、画像生成部405は、図5Bに示すように、特定部402による特定結果及び特定部403による特定結果に基づいて、図5Aに示す3次元データを変形して、疑似3次元画像を生成する。また、制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。次いで、出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する。その後、プロジェクタ3は、この疑似3次元画像を作業領域に投影する。これにより、図6Aに符号102で示すように、作業者11には、投影画像が、作業領域における指定箇所に指定の向きで箱16を置く作業を表すように立体的に見える。なお、例えば図6Bに示すように、作業者11以外の第三者が、投影画像を作業者11とは別の方向から見た場合には、投影画像が立体的には見えない。その後、作業者11は、この投影画像が示す作業指示に従って作業領域における指定箇所に指定の向きで箱16を置く。
次いで、確認指示部408が作業者11による第1の作業の完了を確認すると、作業支援システムは第2の作業を支援する。
具体的には、まず、特定部402は、カメラ1による撮像結果から少なくとも作業者11の目を含む身体の一部の位置を特定する。また、特定部403は、カメラ2による撮像結果から板金部品15の位置及び形状を特定する。なお、画像生成部405及び制御部406は、作業領域から、板金部品15の一部が位置する領域(板金部品15が有する二つの面の一部)及び箱16の上面が位置する領域をプロジェクタ3による投影領域に設定する。また、抽出部404は、記録部401から、箱16の上面四隅に対してネジ締めを行うことを表す3次元データを抽出する。次いで、画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて、3次元データを変形して、疑似3次元画像を生成する。また、制御部406は、特定部402による特定結果及び特定部403による特定結果に基づいて、プロジェクタ3の投影位置及び投影角度のうちの少なくとも一方を制御する。次いで、出力部407は、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する。その後、プロジェクタ3は、この疑似3次元画像を作業領域に投影する。これにより、図7に符号103で示すように、作業者11には、投影画像が、箱16の上面四隅に対してネジ締めを行う作業を表すように立体的に見える。その後、作業者11は、この投影画像が示す作業指示に従って箱16の上面四隅に対してネジ締めを行う。
次いで、確認指示部408が作業者11による第2の作業の完了を確認すると、作業支援システムは支援を終了する。
なお上記では、画像生成部405及び制御部406が投影領域を板金部品15が位置する領域内とする場合を示した。一方、作業内容によっては部品等のサイズが大きく、投影領域が板金部品15が位置する領域をはみ出る場合も考えられる。例えば、ある製品12に対してコンプレッサ等の大型の製品を置く場合には、投影領域が大きくなる。このような場合、画像生成部405及び制御部406は、投影領域を、板金部品15が位置する領域に加え、背景の領域も含めて設定する。
また、作業者11が作業箇所の死角に位置している場合、作業支援システムは当該作業箇所を通知するための画像を投影してもよい。作業者11が作業箇所の死角に位置する場合とは、例えば図6Aでは、作業者11が板金部品15の背面に位置している場合等である。
具体的には、画像生成部405は、特定部402による特定結果及び特定部403による特定結果に基づいて作業者11が作業箇所の死角に位置していると判定した場合に、作業箇所を通知するための画像を生成する。例えば、画像生成部405は、作業者11が板金部品15の背面に位置していると判定した場合に、作業箇所が板金部品15の前面であることを通知するための画像を生成する。そして、プロジェクタ3は、画像生成部405により生成された上記画像を所定の投影領域に投影する。上記の例では、プロジェクタ3は、上記画像を板金部品15の背面等に投影する。
このように、実施の形態1に係る作業支援システムでは、作業者11の位置並びに作業領域に存在する物体の位置及び形状に基づいて疑似3次元画像の生成及びプロジェクタ3の制御を行い、プロジェクタ3から当該疑似3次元画像を投影する。これにより、作業者11には投影画像が立体的に見え、作業者11は、作業指示を視覚的に認識可能となり、疑似3次元画像が示す作業指示の通りに作業を行うことで容易に作業を実施できる。また、疑似3次元画像は作業領域に投影されるため、作業者11は作業指示を確認する際に製品12から目を離す必要はなく、作業時間(タクトタイム)の短縮化が見込める。また、疑似3次元画像では文字を用いていないため、作業者11は、言語の違いに依らず、容易に作業を実施できる。
また、疑似3次元画像は作業者11が裸眼で立体視可能であり、作業者11はHMD等のような特別な装置を装着する必要はない。また、疑似3次元画像は単一画像であり、作業支援システムは両眼視差を利用した3次元画像のように複数の画像を用意する必要はない。
また、特定部402は、カメラ1による撮像結果からリアルタイムに作業者11の位置を特定可能である。そのため、作業支援システムでは、作業の途中で作業者11が移動した場合でも追従して疑似3次元画像を生成可能であり、作業者11は投影画像を常に立体視できる。
なお上記では、特定部403がカメラ2による撮像結果から作業領域に存在する物体の位置及び形状を特定し、画像生成部405及び制御部406が当該物体の位置及び形状に基づいて処理を行う場合を示した。しかしながら、これに限らず、記録部401が、事前に、作業領域に存在すると想定される物体の形状を示す情報を記録し、特定部403は、カメラ2による撮像結果から作業領域に存在する物体の位置のみを特定してもよい。この場合、画像生成部405及び制御部406は、作業領域に存在する物体の形状については記録部401から得る。
以上のように、この実施の形態1によれば、作業領域で作業を行う作業者11を撮像するカメラ1と、作業領域を撮像するカメラ2と、作業領域に入力画像を投影するプロジェクタ3と、カメラ1による撮像結果から作業者11の位置を特定する特定部402と、カメラ2による撮像結果から作業領域に存在する物体の位置を特定する特定部403と、作業指示を表すアイコンである3次元データを順に抽出する抽出部404と、特定部402による特定結果及び特定部403による特定結果に基づいて、抽出部404により抽出された3次元データから、投影画像を一方向から見た際に立体視可能な疑似3次元画像を生成する画像生成部405と、画像生成部405により生成された疑似3次元画像を示すデータをプロジェクタ3に出力する出力部407と、作業者11による作業完了を確認して抽出部404に対して次の3次元データの抽出を指示する確認指示部408とを備えた。これにより、実施の形態1に係る作業支援システムは、作業者11が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能となる。
実施の形態2.
実施の形態1では、画像生成部405が静止画である疑似3次元画像を生成し、プロジェクタ3が当該疑似3次元画像を作業領域に投影する場合を示した。これに対し、画像生成部405は複数の疑似3次元画像を連続したアニメーションを生成し、プロジェクタ3はこのアニメーションを作業領域に投影してもよい。これにより、作業者11は、作業指示の内容をより容易に理解可能となる。
実施の形態3.
実施の形態1,2では、画像生成部405及び制御部406が投影領域をどのような領域に設定するのかについては具体的に言及していない。一方、投影領域が平面ではなく複数の面を有する場合、演算装置4は、3次元データに対し、それぞれの面に投影される領域毎に演算を行って、疑似3次元画像を生成する必要がある。そのため、投影領域は可能な限り凹凸の少ない領域であることが望ましい。
そこで、画像生成部405は、特定部403による特定結果から凹凸の少ない領域を検出し、当該領域をプロジェクタ3による投影領域に設定して、疑似3次元画像の生成を行ってもよい。同様に、制御部406は、特定部403による特定結果から凹凸の少ない領域を検出し、当該領域をプロジェクタ3による投影領域に設定して、プロジェクタ3の制御を行ってもよい。これにより、演算装置4は、疑似3次元画像を生成する際の演算負荷を低減可能となる。
最後に、図8を参照して、実施の形態1~3における演算装置4のハードウェア構成例を説明する。
演算装置4における特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の各機能は、処理回路51により実現される。処理回路51は、図8Aに示すように、専用のハードウェアであってもよいし、図8Bに示すように、メモリ53に格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、又はDSP(Digital Signal Processor)ともいう)52であってもよい。
処理回路51が専用のハードウェアである場合、処理回路51は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の各部の機能それぞれを処理回路51で実現してもよいし、各部の機能をまとめて処理回路51で実現してもよい。
処理回路51がCPU52の場合、特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ53に格納される。処理回路51は、メモリ53に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、演算装置4は、処理回路51により実行されるときに、例えば図3に示した各ステップが結果的に実行されることになるプログラムを格納するためのメモリ53を備える。また、これらのプログラムは、特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の手順及び方法をコンピュータに実行させるものであるともいえる。ここで、メモリ53としては、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、又はDVD等が該当する。
なお、特定部402、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、特定部402については専用のハードウェアとしての処理回路51でその機能を実現し、特定部403、抽出部404、画像生成部405、制御部406、出力部407及び確認指示部408については処理回路51がメモリ53に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
このように、処理回路51は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組合わせ、或いは各実施の形態の任意の構成要素の変形、若しくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る作業支援システムは、作業者が作業領域を見ている状態で、特別な装置を装着することなく、文字を排した作業指示が可能となり、作業指示を行う作業支援システム等に用いるのに適している。
1 カメラ(第1撮像装置)、2 カメラ(第2撮像装置)、3 プロジェクタ(投影装置)、4 演算装置、11 作業者、12 製品、13 台車、14 作業面、15 板金部品、16 箱、51 処理回路、52 CPU、53 メモリ、401 記録部、402 特定部(第1特定部)、403 特定部(第2特定部)、404 抽出部、405 画像生成部、406 制御部、407 出力部、408 確認指示部。

Claims (9)

  1. 作業領域で作業を行う作業者を撮像する第1撮像装置と、
    作業領域を撮像する第2撮像装置と、
    作業領域に入力画像を投影する投影装置と、
    前記第1撮像装置による撮像結果から作業者の位置を特定する第1特定部と、
    前記第2撮像装置による撮像結果から作業領域に存在する物体の位置を特定する第2特定部と、
    作業指示を表すアイコンである3次元データを順に抽出する抽出部と、
    前記第1特定部による特定結果及び前記第2特定部による特定結果に基づいて、前記抽出部により抽出された3次元データから、投影画像を一方向から見た際に立体視可能な疑似3次元画像を生成する画像生成部と、
    前記画像生成部により生成された疑似3次元画像を示すデータを前記投影装置に出力する出力部と、
    作業者による作業完了を確認して前記抽出部に対して次の3次元データの抽出を指示する確認指示部と
    を備えた作業支援システム。
  2. 前記画像生成部は、前記第1特定部により特定された作業者の位置が変わる度に、疑似3次元画像の生成を行う
    ことを特徴とする請求項1記載の作業支援システム。
  3. 前記第1特定部は、作業者の位置として、少なくとも作業者の目を含む身体の一部の位置を特定する
    ことを特徴とする請求項1記載の作業支援システム。
  4. 前記画像生成部は、複数の疑似3次元画像を連続したアニメーションを生成する
    ことを特徴とする請求項1記載の作業支援システム。
  5. 前記画像生成部は、前記第2特定部による特定結果から凹凸の少ない領域を検出し、当該領域を前記投影装置による投影領域に設定して、疑似3次元画像の生成を行う
    ことを特徴とする請求項1記載の作業支援システム。
  6. 前記第1撮像装置は、作業者が位置すると想定される領域が撮像領域に含まれるように撮像位置及び撮像角度のうちの少なくとも一方が可変に構成された
    ことを特徴とする請求項1記載の作業支援システム。
  7. 前記投影装置は、投影位置及び投影角度のうちの少なくとも一方が可変であり、
    前記第1特定部による特定結果及び前記第2特定部による特定結果に基づいて、前記投影装置の投影位置及び投影角度のうちの少なくとも一方を制御する制御部を備えた
    ことを特徴とする請求項1記載の作業支援システム。
  8. 前記制御部は、前記第1特定部により特定された作業者の位置が変わる度に、前記投影装置の投影位置及び投影角度のうちの少なくとも一方の制御を行う
    ことを特徴とする請求項7記載の作業支援システム。
  9. 前記制御部は、前記第2特定部による特定結果から凹凸の少ない領域を検出し、当該領域を前記投影装置による投影領域に設定して、当該投影装置の制御を行う
    ことを特徴とする請求項7記載の作業支援システム。
JP2020568910A 2019-01-29 2019-01-29 作業支援システム Active JP7034340B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/002893 WO2020157821A1 (ja) 2019-01-29 2019-01-29 作業支援システム

Publications (2)

Publication Number Publication Date
JPWO2020157821A1 JPWO2020157821A1 (ja) 2021-09-30
JP7034340B2 true JP7034340B2 (ja) 2022-03-11

Family

ID=71842399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568910A Active JP7034340B2 (ja) 2019-01-29 2019-01-29 作業支援システム

Country Status (2)

Country Link
JP (1) JP7034340B2 (ja)
WO (1) WO2020157821A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299851A (ja) 1999-02-12 2000-10-24 Sanyo Electric Co Ltd 指示情報伝達装置
JP2003270719A (ja) 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2005322055A (ja) 2004-05-10 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 作業支援用情報提示装置、作業支援用情報提示方法及び作業支援用情報を提示するためのプログラム
JP2006293604A (ja) 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
WO2016084151A1 (ja) 2014-11-26 2016-06-02 三菱電機エンジニアリング株式会社 作業支援システム、作業支援装置及び作業支援方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299851A (ja) 1999-02-12 2000-10-24 Sanyo Electric Co Ltd 指示情報伝達装置
JP2003270719A (ja) 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2005322055A (ja) 2004-05-10 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 作業支援用情報提示装置、作業支援用情報提示方法及び作業支援用情報を提示するためのプログラム
JP2006293604A (ja) 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
WO2016084151A1 (ja) 2014-11-26 2016-06-02 三菱電機エンジニアリング株式会社 作業支援システム、作業支援装置及び作業支援方法

Also Published As

Publication number Publication date
WO2020157821A1 (ja) 2020-08-06
JPWO2020157821A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
US10076840B2 (en) Information processing apparatus, information processing method, and program
JP6171671B2 (ja) 情報処理装置、位置指定方法および位置指定プログラム
CN204480228U (zh) 运动感测和成像设备
US8744216B2 (en) Omnidirectional image processing device and method using warp processing for enhanced object visibility
CN102959616B (zh) 自然交互的交互真实性增强
US9857870B2 (en) Method of acquiring gaze information irrespective of whether user wears vision aid and moves
US8388146B2 (en) Anamorphic projection device
US9946146B2 (en) Control apparatus configured to control projection of an image based on position information, projection information, and shape information, corresponding control method and corresponding storage medium
US20180005424A1 (en) Display control method and device
JP6434476B2 (ja) 拡張現実シミュレーション装置及び拡張現実シミュレーションプログラム
JP6160290B2 (ja) 情報処理装置、判定方法および判定プログラム
JP7453137B2 (ja) Pos端末装置および画像処理方法
KR20200003719A (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP7034340B2 (ja) 作業支援システム
JP2018158393A (ja) 安全制御装置、安全制御方法およびプログラム
US20150185484A1 (en) Pupil tracking apparatus and method
US10444825B2 (en) Drift cancelation for portable object detection and tracking
KR102082277B1 (ko) 파노라마 영상 생성 방법 및 그 장치
WO2020217348A1 (ja) 画像投影システム
JP6899281B2 (ja) パノラマ画像生成システム及び設定装置
JP6763368B2 (ja) 制御装置、制御方法及びプログラム
KR101237975B1 (ko) 영상 처리 장치
JP6885127B2 (ja) 表示制御装置、表示制御方法およびプログラム
KR20190068880A (ko) Vr 기반의 프레젠테이션 문서의 출력이 가능한 hmd 장치 및 그 동작 방법
KR102269088B1 (ko) 동공 추적 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R150 Certificate of patent or registration of utility model

Ref document number: 7034340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150