JP6344890B2 - 部品組立作業支援システムおよび部品組立方法 - Google Patents

部品組立作業支援システムおよび部品組立方法 Download PDF

Info

Publication number
JP6344890B2
JP6344890B2 JP2013107887A JP2013107887A JP6344890B2 JP 6344890 B2 JP6344890 B2 JP 6344890B2 JP 2013107887 A JP2013107887 A JP 2013107887A JP 2013107887 A JP2013107887 A JP 2013107887A JP 6344890 B2 JP6344890 B2 JP 6344890B2
Authority
JP
Japan
Prior art keywords
component
assembly
image
support system
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013107887A
Other languages
English (en)
Other versions
JP2014229057A (ja
Inventor
子 田 繁 一 志
子 田 繁 一 志
村 直 弘 中
村 直 弘 中
野 信 一 中
野 信 一 中
松 政 彦 赤
松 政 彦 赤
本 臣 吾 米
本 臣 吾 米
本 孝 河
本 孝 河
海 大 輔 渡
海 大 輔 渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP2013107887A priority Critical patent/JP6344890B2/ja
Priority to CN201480028852.XA priority patent/CN105229705B/zh
Priority to US14/893,126 priority patent/US10229539B2/en
Priority to KR1020157031987A priority patent/KR20150139610A/ko
Priority to PCT/JP2014/061405 priority patent/WO2014188836A1/ja
Publication of JP2014229057A publication Critical patent/JP2014229057A/ja
Application granted granted Critical
Publication of JP6344890B2 publication Critical patent/JP6344890B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、複合現実感技術を用いて部品の組立作業を支援するための部品組立作業支援システムおよび同システムを用いた部品組立方法に関する。
従来より、構造物等を製造するための部品の組立作業においては、組み合わせる部品(ワーク)同士を、組立作業に先立って事前に突き合わせるなどして、組立に支障がないか、或いは組立て易いかなど、組立性を確認している。
しかしながら、部品が大きすぎて容易には動かせない場合や、或いは組み合わせる部品がそれぞれ別の場所で製作・保存されている場合には、組立作業に先立って組立性を確認することが極めて困難もしくは不可能である。
そのため、実際の組立作業を始めてから問題点が見つかり、組立作業を一旦中止して部品の修正作業を行う必要があった。このように組立作業を一旦中止して部品の修正作業を行うことにより、工程に遅れが生じてしまう。
このような事態を回避するためには、例えば、別の工場にて製作された部品を受け入れる際の受入れ検査の条件(検査項目の数など)を今よりも厳しくして、部品の受入れ時点で問題点を発見するようにすることも考えられる。或いはまた、他の工場における出荷時点の検査条件を今よりも厳しくすることも考えられる。
しかしながら、出荷時点や受入れ時点での検査条件をあまり厳しくすると、検査のためのコストが増加してしまうという問題があり、また、当該別の工場にはそもそも検査設備(寸法計測手段など)が設置されていない場合もある。
また、一般に組立作業には、組立要領書や作業指示書などが用いられる。これは紙ベースで図面や文章で説明されていることが多い。また最近は、PCやタブレット端末を利用して立体図や動画などを使ったインタラクティブな理解しやすいコンテンツを使うことも取り組まれている。
しかしながら、作業者は組立要領書や作業指示書を側に置き、その内容を確認しながら作業に対応しているため、作業者の視線移動距離が大きくなり、無駄な動作を行うことになる。
また、コンテンツを工夫しても、やはり指示内容と現物を見比べながら作業を行うことになり、コンテンツの理解のために図や文章の理解が必要になる。
その結果、作業者の肉体的、或いは精神的な負担が大きくなってしまうという問題がある。
ところで近年、任意視点における現実空間の画像に、仮想空間の画像を重畳し、これにより得られた合成画像を観察者に提示する複合現実感(MR:Mixed Reality)技術が、現実世界と仮想世界をシームレスに、リアルタイムで融合させる画像技術として注目されている(特許文献1−4)。
特開2005−107968号公報 特開2005−293141号公報 特開2003−303356号公報 特開2008−293209号公報
そこで、本発明は、複合現実感技術を利用して、部品の組立作業における上述の問題を解決し、作業効率の大幅な向上を図ることができる部品組立作業支援システムおよび同システムを用いた部品組立方法を提供することを目的とする。
上記課題を解決するために、本発明は、部品の組立作業を支援するための部品組立作業支援システムであって、作業者の視点位置でその視線方向における作業空間を、一方の部品を組み付けるべき他方の部品と共に撮像するための撮像手段と、前記作業者の視点と、前記作業空間中の前記他方の部品との相対的な位置姿勢関係を示す位置姿勢情報を取得するための位置姿勢情報取得手段と、前記位置姿勢情報に基づいて、前記作業者の前記視点位置およびその視線方向における前記一方の部品の実物形状の仮想画像を生成するための仮想画像生成手段と、前記撮像手段により撮像された前記作業空間の現実画像に前記仮想画像を重畳させて合成画像を生成するための画像合成手段と、前記合成画像を表示するための表示手段と、を備える。
また、好ましくは、前記仮想画像生成手段は、3次元スキャナによって得られた前記一方の部品の3次元実物形状データに基づいて前記仮想画像を生成する。
また、好ましくは、前記位置姿勢情報取得手段は、前記他方の部品上の基準点に対する所定の相対位置に暫定的に設置される複合現実感用マーカーを有する。
また、好ましくは、前記位置姿勢情報取得手段は、前記作業者の視点位置およびその視線方向、並びに前記ワークの位置を計測するための位置方向計測装置を有する。
また、好ましくは、前記部品の組立手順に関する組立手順情報を生成するための組立手順情報生成部をさらに備え、前記組立手順情報生成部において生成された前記組立手順情報が前記画像合成手段により生成される前記合成画像の中に組み込まれる。
上記課題を解決するために、本発明は、部品の組立作業を支援するための部品組立作業支援システムを用いた部品組立方法であって、作業者の視点位置でその視線方向における作業空間を、一方の部品を組み付けるべき他方の部品と共に撮像する撮像工程と、前記作業者の視点と、前記作業空間中の前記他方の部品との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得工程と、前記位置姿勢情報に基づいて、前記作業者の前記視点位置およびその視線方向における前記一方の部品の実物形状の仮想画像を生成する仮想画像生成工程と、前記撮像工程において撮像された前記作業空間の現実画像に前記仮想画像を重畳させて合成画像を生成する画像合成工程と、前記合成画像を表示する表示工程と、を備える。
また、好ましくは、前記位置姿勢情報取得工程は、前記他方の部品上の基準点に対する所定の相対位置に複合現実感用マーカーを暫定的に設置するマーカー設置工程を含む。
また、好ましくは、前記一方の部品と前記他方の部品との組立性の良否を判断するために、前記表示工程にて映し出された前記合成画像において、前記一方の部品の実物形状の仮想画像を前記他方の部品の現実画像に突き合わせる。
また、好ましくは、前記部品の組立手順に関する組立手順情報を生成する組立手順情報生成工程をさらに備え、前記組立手順情報生成工程にて生成された前記組立手順情報を、前記画像合成工程にて生成される前記合成画像の中に組み込む。
本発明による部品組立作業支援システムおよび同システムを用いた部品組立方法によれば、複合現実感技術を利用することにより、実際の部品同士を突き合わせることなく組立性を確認することができるので、部品組立の作業効率を大幅に向上させることができる。
本発明の一実施形態による部品組立作業支援システムの概略構成を示したブロック図。 図1に示した部品組立作業支援システムの概略構成を示した模式図。 図1に示した部品組立作業支援システムのマーカー部材を拡大して示した斜視図。 図1に示した部品組立作業支援システムを用いて、部品を検査し、必要に応じて修正し、組み付ける、一連の組立工程を示した模式図。 図1に示した部品組立作業支援システムの一変形例の概略構成を示した模式図。 図1に示した部品組立作業支援システムの他の変形例の概略構成を示したブロック図。 図7に示した部品組立作業支援システムの更に他の変形例の概略構成を示した模式図。 従来の部品組立作業を説明するための模式図。 従来の部品組立作業を説明するための他の模式図。
以下、本発明の一実施形態による部品組立作業支援システムおよび同システムを用いた部品組立方法について説明する。
なお、本システムによる支援の対象となる部品組立作業は、典型的には、ボイラその他の大型構造物を製造する際の部品組立作業であるが、それ以外にも、複数の部品を組立てて完成品を製造するための各種の部品組立作業を支援することができる。
本実施形態による部品組立作業支援システムは、複合現実感技術を用いるものであるので、まず初めに複合現実感技術について概説する。
既に述べたように複合現実感技術とは、任意視点における現実空間の画像に、仮想空間の画像を重畳し、これにより得られた合成画像を観察者に提示して、現実世界と仮想世界をシームレスに、リアルタイムで融合させる映像技術である。
すなわち、この複合現実感技術は、現実空間画像と、観察者の視点位置、視線方向に応じて生成される仮想空間画像とを合成することにより得られる合成画像を、観察者に提供するものである。そして、仮想物体のスケールを観察者に実寸感覚で捉えさせ、仮想物体が現実世界に本当に存在しているように感じさせることができる。
この複合現実感技術によれば、コンピュータ・グラフィック(CG)をマウスやキーボードで操作するのではなく、観察者が実際に移動して任意の位置や角度から見ることができる。すなわち、画像位置合わせ技術によってCGを指定の場所に置き、例えばシースルー型のヘッド・マウント・ディスプレイ(HMD:Head Mount Display)を使って、そのCGを様々な角度から見ることが可能である。
複合現実感空間(MR空間)を表現するためには、現実空間中に定義した基準座標系、すなわち、現実空間に重畳しようとする仮想物体の位置姿勢を決定する基準となる現実空間中の座標系と、撮像部の座標系(カメラ座標系)との間の、相対的な位置姿勢関係を取得することが必要である。
そのための適切な画像位置合わせ技術としては、例えば、磁気センサー、光学式センサー、または超音波センサーを利用するものや、マーカー、ジャイロを利用するもの等があげられる。
ここで、マーカー(「ランドマーク」とも呼ばれる。)とは、画像の位置合わせのために使う指標のことであり、現実空間内に配置されたマーカーを、HMDに装着されたカメラ(撮像装置)で撮像することにより、カメラの位置姿勢を画像処理によって推定することができるというものである。
すなわち、現実空間中の既知の3次元座標に所定の視覚的特徴を有するマーカーを配置し、現実画像中に含まれるマーカーを検出し、検出したマーカーの構成要素(マーカーの中心や頂点など)の2次元画像位置と、既知の3次元座標とからカメラ(撮像装置)の位置姿勢が算出される。
本実施形態による部品組立作業支援システムは、上述した複合現実感技術を利用したものであり、以下にその構成について、図1乃至図4を参照して説明する。
図1および図2に示したように、本実施形態による部品組立作業支援システム1は、システム本体2と、このシステム本体2との間でデータ通信を行うヘッド・マウント・ディスプレイ(HMD)3と、マーカー部材4と、を備えている。
部品組立作業支援システム1のシステム本体2は、CPU、RAM、ROM、外部記憶装置、記憶媒体ドライブ装置、表示装置、入力デバイスなどを備えたコンピュータによって構成されている。
図2に示したようにHMD3は、作業者4の頭部に装着されており、撮像部5および表示部6を備えている。撮像部5および表示部6は、それぞれ2つずつ設けられており、撮像部5Rおよび表示部6Rは右目用、撮像部5Lおよび表示部6Lは左目用である。この構成により、HMD3を頭部に装着した作業者4の右目と左目に対して視差画像を提示することができ、MR画像(合成画像)を3次元表示することができる。
HMD3の撮像部5は、マーカー設置工程において、第1の部品(ワーク)7Aの上に暫定的に設置されたMR用マーカー部材8と共に、当該第1の部品7Aを撮像する(撮像工程)。マーカー部材8は、第1の部品7A上の基準点に対する所定の相対位置に設置されるものである。
図3に示したように、本実施形態によるマーカー部材8は、三角形の枠部9と、三角形の枠部材9の各頂点の下面に設けられた各支持部10と、三角形の枠部材9の各頂点の上面に設けられた各複合現実感用マーカー11とを備えている。
図1に示したように、HMD3の撮像部5によって取得された現実空間の現実画像は、システム本体2の現実画像取得部12に入力される。この現実画像取得部12は、入力された現実画像のデータを、システム本体2の記憶部13に出力する。
記憶部13は、MR画像(合成画像)の提示処理のために必要な情報を保持し、処理に応じて情報の読み出しや更新を行うものである。
また、システム本体2は、記憶部13が保持している現実画像の中から、マーカー部材8に設けられたマーカー11を検出するためのマーカー検出部14を備えている。
そして、現実物体である第1の部品7Aの上に配置したマーカー部材8のマーカー11の検出結果が、マーカー検出部14から記憶部13を介して撮像部位置姿勢推定部15に送られる。この撮像部位置姿勢推定部15は、マーカー11の検出結果に基づいて、第1の部品7A自身の物体座標系を基準座標系としたHMD3の撮像部5の位置姿勢を推定する(位置姿勢情報取得工程)。
ここで、マーカー部材8、マーカー検出部14、および撮像部位置姿勢推定部15が、部品組立作業支援システム1における位置姿勢情報取得手段を構成している。
撮像部位置姿勢推定部15により推定されたHMD3の撮像部5の位置姿勢は、仮想画像生成部16に送られる。仮想画像生成部16は、撮像部位置姿勢推定部15から送られた撮像部5の位置姿勢、すなわち、作業者4の視点位置およびその視線方向に基づいて、撮像部5の位置姿勢から見える他方の部品(ワーク)7Bの3次元の仮想画像を生成する(仮想画像生成工程)。
ここで、本実施形態による部品組立作業支援システム1では、この仮想画像生成部16において、3次元スキャナ18からのデータに基づいて、第1の部品7Aに組み付けられるべき第2の部品の仮想画像30Vが生成される。
より具体的には、図4に示したように、3次元スキャナ18によって第2の部品7Bを3次元計測し、第2の部品7Bの3次元実物形状データを取得する。このとき、第2の部品7Bは、その組み付け対象である第1の部品7Aを製造する工場とは別の工場に保管されていても良い。
次に、3次元スキャナ18によって取得された第2の部品7Bの3次元実物形状データは、システム本体2の記憶部13に送られて、そこに保存される。そして、仮想画像生成部16は、記憶部13に保存された第2の部品7Bの3次元実物形状データに基づいて、第2の部品7Bの仮想画像19を生成する。
即ち、仮想画像生成部16において生成される第2の部品7Bの仮想画像19は、第2の部品7Bの理想形状に関する仮想画像ではなく、実際の第2の部品7Bの実物形状に関する仮想画像である。従って、この第2の部品7Bの仮想画像は、加工誤差、取付誤差、ひずみ、変形、加工処理の影響などを受けた実際の形状を示すものである。
仮想画像生成部16において生成された第2の部品7Bの仮想画像19は、システム本体2の画像合成部17に送られる。画像合成部17は、記憶部13が保持している第1の部品7Aの現実画像に、仮想画像生成部16から送られる第2の部品7Bの仮想画像19を重畳し、MR画像(合成画像)を生成する(画像合成工程)。
画像合成部17で生成されたMR画像(合成画像)は、HMD3の表示部6に出力される(表示工程)。これにより、HMD3の表示部6には、HMD3の撮像部5の位置姿勢に応じた現実空間の画像と、仮想空間の画像とが重畳されたMR画像が表示され、このHMD3を頭部に装着した作業者4に、複合現実空間を体験させることができる。
そして、作業者4は、図4に示したように、MR画像に表示された第2の部品7Bの実物形状に関する仮想画像19を、同じくMR画像に表示された第1の部品7Aの現実画像20に突き合わせて、それらの部品同士の組立性の良否を判断する。
作業者4は、第2の部品7Bの実物形状に関する仮想画像19を、第1の部品7Aの現実画像20に突き合わせた結果、両部品間の組立性に問題があると判断した場合には、第1の部品7Aおよび第2の部品7Bのいずれか一方、或いは両方を修正して、両部品間の組立性を担保する。
この組立性を担保するための作業は、第1の部品7Aと第2の部品7Bとが同じ場所(工場)になくても、それぞれが別の場所(工場)にある場合でも実施することができる。
第1の部品7Aと第2の部品7Bとの組立性が担保できたら、第2の部品7Bを、第1の部品7Aが保管されている工場に搬入し、ここで両部品を組立てる。このとき、上述したように両部品の組立性は既に担保されている。
これに対して、図9に示した従来の組立方法においては、まず最初に、他の工場で製作された第2の部品7Bを、第1の部品7Aが保管されている工場に搬入し、そこで両部品の現物同士を突き合わせる。
そして、両部品の組立性に問題がある場合には、第1の部品7Aおよび第2の部品7Bのいずれか一方、或いは両方を修正して、組立性を担保し、しかる後に両部品を組立てる。
このように従来の組立方法では、実際の組立作業において部品の現物同士を突き合わせることで組立性を確認していたので、組立性に問題がある場合には組立作業を中断しなければならず、作業効率が低下してしまう。
一方、本実施形態による部品組立作業支援システム1によれば、第2の部品7Bの実物形状に関する仮想画像19を、第1の部品7Aの現実画像20に突き合わせることにより、両部品の組立性を確認することができる。
このため、第1の部品7Aと第2の部品7Bとが互いに別の場所にある場合でも両部品の組立性を確認することが可能である。或いはまた、部品が大きすぎて容易には動かせない場合でも、部品を動かすことなく、部品同士の組立性を確認することができる。
これに対して、本実施形態による部品組立作業支援システム1によれば、第2の部品7Bの実物形状に関する仮想画像19を、第1の部品7Aの現実画像20に突き合わせるようにしたので、両部品の組立性をその全体にわたって検証することができる。
以上より、本実施形態による部品組立作業支援システム1においては、実際に両部品を組立てる前に組立性が担保され、その結果、組立作業を途中で中断することなく、円滑に短時間で完了することが可能であり、部品組立の作業効率を大幅に向上させることができる。
なお、上記実施形態においては、第2の部品7Bの全体を3次元スキャナ18で計測して、第2の部品7Bの全体形状に関する仮想画像19を生成するようにしたが、例えば、第2の部品7B全体のうちの、組立性の検証に必要な部位のみを3次元スキャナ18で計測して、当該部位についてのみの仮想画像を生成しても良い。要するに、基準位置さえ合わせれば、仮想画像を生成する部位の範囲を適宜選択することができる。
図5は、上記実施形態の一変形例を示している。上述した実施形態においては、部品組立作業支援システム1における位置姿勢情報取得手段を、マーカー部材8、マーカー検出部14、および撮像部位置姿勢推定部15によって構成するようにした。
本変形例では、これに代えて、あるいはこれと併せて、図5に示したように、作業者4の視点位置およびその視線方向、並びに第1の部品7Aの位置を計測するための位置方向計測装置21を設けた。この種の位置方向計測装置21としては、例えば、超音波センサーや磁気式・光学式位置計測センサーを用いることができる。
また、上述したような別途用意する複合現実感用マーカー11に代えて、第1の部品7A自身の一部(例えば、幾何学的特徴点である角部)を位置合わせ用の基準点(一種のマーカー)として利用することもできる。
図6は、上記実施形態の他の変形例を示しており、本変形例による部品組立作業支援システム1は、図1に示した上記実施形態の構成に対して、さらに、部品の組立手順に関する組立手順情報を生成するための組立手順情報生成部22が追加されている。
この組立手順情報生成工程において生成された組立手順情報が、画像合成手段17により生成される合成画像の中に組み込まれ、HMD3の表示部6に表示される。
組立手順情報のタイプとしては、作業手順を文章で示すテキスト情報、組立手順を動画で示すアニメーション情報、或いは、次の部品を点灯して指示するなどのナビゲーション情報を用いることができる。
例えば、図7に示したように、本体部品23に筒状部品24を組み付ける作業を行う際には、HMD3の表示部6に、テキスト情報として「組み付ける」の文字が表示されると共に、筒状部品24の移動軌跡(矢印)が、組み付け後の筒状部品の仮想画像25と共にナビゲーションまたはアニメーション情報として表示される。
ここで、HMD3の表示部6に表示される筒状部品24の仮想画像25は、3次元スキャナ18で予め取得した筒状部品24の3次元実物形状データに基づいて仮想画像生成部16で生成した筒状部品24の実物形状の仮想画像を用いることができる。
作業者4は、組立手順情報生成部22において生成され、HMD3の表示部6に表示された組立手順情報を見ながら、筒状部品24を本体部品23に組み付ける。
これに対して従来の組立方法においては、作業者4は、図8に示したように、タブレット端末26等に表示された作業手順と、本体部品23・筒状部品24とを交互に見比べなら組立作業を行う。このため、作業者4の肉体的、或いは精神的な負担が大きくなってしまう。
一方、本変形例による部品組立作業支援システム1においては、上述したように、作業者4は、HMD3の表示部6に表示された組立手順情報を見ながら組立作業を行うので、作業指示と組立部品とを同じ目線で確認すること可能である。これにより、作業中の視線移動が最小限に抑えられ、作業者4の肉体的・精神的負担を軽減することができる。
また、作業者4にとって直感的に理解し易い各種の組立手順情報を、HMD3の表示部6に表示させることができるので、作業者4の負担軽減が図られるばかりでなく、組立ミスを防止して作業の確実性を高めることができる。これにより、手戻り作業が不要となって、組立作業の効率を大幅に高めることができる。
1 部品組立作業支援システム
2 システム本体
3 ヘッド・マウント・ディスプレイ(HMD)
4 作業者
5、5R、5L HMDの撮像部
6、6R、6L HMDの表示部
7A 第1の部品(一方の部品)
7B 第2の部品(他方の部品)
8 マーカー部材(位置姿勢情報取得手段)
9 マーカー部材の枠部材
10 マーカー部材の支持部
11 マーカー
12 現実画像取得部
13 記憶部
14 マーカー検出部(位置姿勢情報取得手段)
15 撮像部位置姿勢推定部(位置姿勢情報取得手段)
16 仮想画像生成部(仮想画像生成手段)
17 画像合成部(画像合成手段)
18 3次元スキャナ
19 第2の部品の仮想画像
20 第1の部品の現実画像
21 位置方向計測装置
22 組立手順情報生成部
23 本体部品
24 筒状部品
25 筒状部品の仮想画像
26 タブレット端末

Claims (9)

  1. 部品の組立作業を支援するための部品組立作業支援システムであって、
    作業者の視点位置でその視線方向における作業空間を、一方の部品を組み付けるべき他方の部品と共に撮像するための撮像手段と、
    前記作業者の視点と、前記作業空間中の前記他方の部品との相対的な位置姿勢関係を示す位置姿勢情報を取得するための位置姿勢情報取得手段と、
    前記位置姿勢情報に基づいて、前記作業者の前記視点位置およびその視線方向における前記一方の部品の実物形状を測定する手段によって得られたデータに基づく仮想画像を生成するための仮想画像生成手段と、
    前記撮像手段により撮像された前記作業空間の現実画像に前記仮想画像を重畳させて合成画像を生成するための画像合成手段と、
    前記合成画像を表示するための表示手段と、を備えた部品組立作業支援システム。
  2. 前記仮想画像生成手段は、3次元スキャナによって得られた前記一方の部品の3次元実物形状データに基づいて前記仮想画像を生成する、請求項1記載の部品組立作業支援システム。
  3. 前記位置姿勢情報取得手段は、前記他方の部品上の基準点に対する所定の相対位置に暫定的に設置される複合現実感用マーカーを有する、請求項1または2に記載の部品組立作業支援システム。
  4. 前記位置姿勢情報取得手段は、前記作業者の視点位置およびその視線方向、並びに前記部品の位置を計測するための位置方向計測装置を有する、請求項1乃至3のいずれか一項に記載の部品組立作業支援システム。
  5. 前記部品の組立手順に関する組立手順情報を生成するための組立手順情報生成部をさらに備え、前記組立手順情報生成部において生成された前記組立手順情報が前記画像合成手段により生成される前記合成画像の中に組み込まれる、請求項1乃至4のいずれか一項に記載の部品組立作業支援システム。
  6. 部品の組立作業を支援するための部品組立作業支援システムを用いた部品組立方法であって、
    作業者の視点位置でその視線方向における作業空間を、一方の部品を組み付けるべき他方の部品と共に撮像する撮像工程と、
    前記作業者の視点と、前記作業空間中の前記他方の部品との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得工程と、
    前記位置姿勢情報に基づいて、前記作業者の前記視点位置およびその視線方向における前記一方の部品の実物形状を測定する手段によって得られたデータに基づく仮想画像を生成する仮想画像生成工程と、
    前記撮像工程において撮像された前記作業空間の現実画像に前記仮想画像を重畳させて合成画像を生成する画像合成工程と、
    前記合成画像を表示する表示工程と、を備えた部品組立方法。
  7. 前記位置姿勢情報取得工程は、前記他方の部品上の基準点に対する所定の相対位置に複合現実感用マーカーを暫定的に設置するマーカー設置工程を含む、請求項6記載の部品組立方法。
  8. 前記一方の部品と前記他方の部品との組立性の良否を判断するために、前記表示工程にて映し出された前記合成画像において、前記一方の部品の実物形状を測定する手段によって得られたデータに基づく仮想画像を前記他方の部品の現実画像に突き合わせる、請求項6または7に記載の部品組立方法。
  9. 前記部品の組立手順に関する組立手順情報を生成する組立手順情報生成工程をさらに備え、前記組立手順情報生成工程にて生成された前記組立手順情報を、前記画像合成工程にて生成される前記合成画像の中に組み込む、請求項6乃至8のいずれか一項に記載の部品組立方法。
JP2013107887A 2013-05-22 2013-05-22 部品組立作業支援システムおよび部品組立方法 Active JP6344890B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013107887A JP6344890B2 (ja) 2013-05-22 2013-05-22 部品組立作業支援システムおよび部品組立方法
CN201480028852.XA CN105229705B (zh) 2013-05-22 2014-04-23 零件组装作业支持系统及零件组装方法
US14/893,126 US10229539B2 (en) 2013-05-22 2014-04-23 Component assembly work support system and component assembly method
KR1020157031987A KR20150139610A (ko) 2013-05-22 2014-04-23 부품 조립 작업 지원 시스템 및 부품 조립 방법
PCT/JP2014/061405 WO2014188836A1 (ja) 2013-05-22 2014-04-23 部品組立作業支援システムおよび部品組立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013107887A JP6344890B2 (ja) 2013-05-22 2013-05-22 部品組立作業支援システムおよび部品組立方法

Publications (2)

Publication Number Publication Date
JP2014229057A JP2014229057A (ja) 2014-12-08
JP6344890B2 true JP6344890B2 (ja) 2018-06-20

Family

ID=51933400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013107887A Active JP6344890B2 (ja) 2013-05-22 2013-05-22 部品組立作業支援システムおよび部品組立方法

Country Status (5)

Country Link
US (1) US10229539B2 (ja)
JP (1) JP6344890B2 (ja)
KR (1) KR20150139610A (ja)
CN (1) CN105229705B (ja)
WO (1) WO2014188836A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
JP6424612B2 (ja) * 2014-12-19 2018-11-21 富士通株式会社 組立支援システム、及び、組立支援方法
GB2533573A (en) * 2014-12-22 2016-06-29 Nokia Technologies Oy Image processing method and device
EP3104241B1 (en) * 2015-06-12 2020-09-16 Accenture Global Services Limited An augmented reality method and system for measuring and/or manufacturing
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP6643170B2 (ja) * 2016-04-11 2020-02-12 株式会社日立製作所 作業支援システム及び方法
JP6415495B2 (ja) 2016-08-09 2018-10-31 株式会社ミスミ 設計支援装置、設計支援システム、サーバ及び設計支援方法
CN106504629B (zh) * 2016-11-04 2019-05-24 快创科技(大连)有限公司 一种基于增强现实技术的汽车组装演示记忆系统
JP6470323B2 (ja) * 2017-01-23 2019-02-13 ファナック株式会社 情報表示システム
JP7212611B2 (ja) * 2017-02-27 2023-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
JP2019046067A (ja) * 2017-08-31 2019-03-22 株式会社イシダ 作業支援システム
US10699165B2 (en) 2017-10-30 2020-06-30 Palo Alto Research Center Incorporated System and method using augmented reality for efficient collection of training data for machine learning
DE102017126457A1 (de) * 2017-11-10 2019-05-16 ARS Computer und Consulting GmbH Vorrichtung zur Unterstützung eines Benutzers an einem Arbeitsplatz, Verfahren und Computerprogrammprodukt
DE102018000733A1 (de) * 2018-01-29 2019-08-01 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Überwachungs- und Bediensystem für einen Fertigungsarbeitsplatz und Verfahren zur Unterstützung und Überwachung eines Werkers beim Prozess zum Montieren oder Fertigen eines Produkts oder Teilprodukts
CN109215133B (zh) * 2018-08-22 2020-07-07 成都新西旺自动化科技有限公司 一种用于视觉对位算法筛选的模拟图像库构建方法
CN111221297A (zh) * 2018-11-26 2020-06-02 株式会社斯巴鲁 部件加工装置
JP7414395B2 (ja) * 2018-12-18 2024-01-16 川崎重工業株式会社 情報投影システム、制御装置、及び情報投影制御方法
US11443495B2 (en) 2018-12-31 2022-09-13 Palo Alto Research Center Incorporated Alignment- and orientation-based task assistance in an AR environment
CN109816049B (zh) * 2019-02-22 2020-09-18 青岛理工大学 一种基于深度学习的装配监测方法、设备及可读存储介质
JP2020149143A (ja) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ 作業支援システム、作業支援方法、及びプログラム
JP2020149142A (ja) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ 作業支援システム、作業支援方法、及びプログラム
JP7403273B2 (ja) * 2019-10-16 2023-12-22 東芝プラントシステム株式会社 画像処理装置、及び画像処理方法
EP4074474A4 (en) * 2019-12-13 2024-06-05 Kawasaki Jukogyo Kabushiki Kaisha ROBOT SYSTEM AND METHOD FOR PRODUCING A THREE-DIMENSIONAL MODEL OF A WORKPIECE
US11917289B2 (en) 2022-06-14 2024-02-27 Xerox Corporation System and method for interactive feedback in data collection for machine learning in computer vision tasks using augmented reality
CN115346413A (zh) * 2022-08-19 2022-11-15 南京邮电大学 一种基于虚实融合的装配指导方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006919A (ja) * 2000-06-20 2002-01-11 Nissan Motor Co Ltd 作業指示装置における位置検出方法および位置検出装置
JP2003303356A (ja) 2002-04-09 2003-10-24 Canon Inc 展示装置
JP4366165B2 (ja) 2003-09-30 2009-11-18 キヤノン株式会社 画像表示装置及び方法並びに記憶媒体
JP4537104B2 (ja) 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
KR100704831B1 (ko) * 2005-06-01 2007-04-09 주식회사 아이너스기술 3차원 스캐너를 이용한 실시간 검사 안내 시스템 및 방법
JP4909176B2 (ja) 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
JP4963094B2 (ja) * 2007-09-11 2012-06-27 独立行政法人産業技術総合研究所 作業支援装置
CN101451827A (zh) * 2008-12-26 2009-06-10 广东工业大学 基于激光组合模块图的光学检测系统及其检测方法
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
JP2012043396A (ja) * 2010-08-13 2012-03-01 Hyundai Motor Co Ltd 拡張現実を用いた車両消耗品管理システム及びその方法
JP5594088B2 (ja) * 2010-11-22 2014-09-24 トヨタ自動車株式会社 製造ラインの検討システム
JP2013074970A (ja) * 2011-09-30 2013-04-25 Brother Ind Ltd ミシン
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法

Also Published As

Publication number Publication date
WO2014188836A1 (ja) 2014-11-27
CN105229705A (zh) 2016-01-06
US20160125654A1 (en) 2016-05-05
CN105229705B (zh) 2019-05-10
JP2014229057A (ja) 2014-12-08
US10229539B2 (en) 2019-03-12
KR20150139610A (ko) 2015-12-11

Similar Documents

Publication Publication Date Title
JP6344890B2 (ja) 部品組立作業支援システムおよび部品組立方法
JP6138566B2 (ja) 部品取付作業支援システムおよび部品取付方法
JP6349307B2 (ja) ワーク加工作業支援システムおよびワーク加工方法
US9684169B2 (en) Image processing apparatus and image processing method for viewpoint determination
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
US9696543B2 (en) Information processing apparatus and information processing method
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
US20130135310A1 (en) Method and device for representing synthetic environments
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP2020126208A5 (ja)
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP6364389B2 (ja) 検査方法及び検査システム
JP2006215750A (ja) 画像処理方法、画像処理装置
JP2019066196A (ja) 傾き測定装置及び傾き測定方法
JP2016058043A (ja) 情報処理装置、情報処理方法、プログラム
JP6529160B2 (ja) Ar情報表示装置
US11636645B1 (en) Rapid target acquisition using gravity and north vectors
JP2023117824A (ja) 情報処理方法及び情報処理システム
JP2024089324A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017120512A (ja) 作業支援システムおよび方法
JP2019082879A (ja) 姿勢制御システム
JP2017102269A (ja) 頭部装着型表示装置およびコンピュータープログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180522

R150 Certificate of patent or registration of utility model

Ref document number: 6344890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250