JPWO2020075232A1 - 拡張現実による機械的締結部の管理方法 - Google Patents

拡張現実による機械的締結部の管理方法 Download PDF

Info

Publication number
JPWO2020075232A1
JPWO2020075232A1 JP2019565955A JP2019565955A JPWO2020075232A1 JP WO2020075232 A1 JPWO2020075232 A1 JP WO2020075232A1 JP 2019565955 A JP2019565955 A JP 2019565955A JP 2019565955 A JP2019565955 A JP 2019565955A JP WO2020075232 A1 JPWO2020075232 A1 JP WO2020075232A1
Authority
JP
Japan
Prior art keywords
fastening
virtual
tool
real
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019565955A
Other languages
English (en)
Other versions
JP6802547B2 (ja
Inventor
雄太 谷田
雄太 谷田
岡田 智仙
智仙 岡田
義史 小林
義史 小林
淳夫 菊名
淳夫 菊名
匠 中村
匠 中村
美輪 山浦
美輪 山浦
剛二郎 山口
剛二郎 山口
祥吾 中田
祥吾 中田
祐輔 平井
祐輔 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamagata
Original Assignee
Yamagata
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamagata filed Critical Yamagata
Application granted granted Critical
Publication of JP6802547B2 publication Critical patent/JP6802547B2/ja
Publication of JPWO2020075232A1 publication Critical patent/JPWO2020075232A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25BTOOLS OR BENCH DEVICES NOT OTHERWISE PROVIDED FOR, FOR FASTENING, CONNECTING, DISENGAGING OR HOLDING
    • B25B23/00Details of, or accessories for, spanners, wrenches, screwdrivers
    • B25B23/14Arrangement of torque limiters or torque indicators in wrenches or screwdrivers
    • B25B23/142Arrangement of torque limiters or torque indicators in wrenches or screwdrivers specially adapted for hand operated wrenches or screwdrivers
    • B25B23/1422Arrangement of torque limiters or torque indicators in wrenches or screwdrivers specially adapted for hand operated wrenches or screwdrivers torque indicators or adjustable torque limiters
    • B25B23/1425Arrangement of torque limiters or torque indicators in wrenches or screwdrivers specially adapted for hand operated wrenches or screwdrivers torque indicators or adjustable torque limiters by electrical means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31027Computer assisted manual assembly CAA, display operation, tool, result
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31047Display image of finished workpiece on screen, show how, where to mount next part
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Details Of Spanners, Wrenches, And Screw Drivers And Accessories (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

従来の作業管理システムでは、管理したいそれぞれの部品にRFIDタグなどの識別標識を付加し、アンテナを有する締結工具を準備する必要があるため、運用コストが大きくなる。現実空間に仮想空間を重ねて生成した拡張現実空間を用いたにおける拡張現実による機械的締結部の管理方法であって、現実締結部(RBn)と仮想締結部(IBn)とが一対一に対応している拡張現実空間において、当該現実締結部が締結対象に選択された情報をカメラ等で取得し、当該カメラに接続されている拡張現実サーバで解析することによって、予定通りに所定の作業が進行していることを容易に記録でき、運用コストの小さい高品質な機械的締結部の管理方法やシステムを実現することができる。

Description

本発明は、拡張現実を活用した機械的締結部の管理に関する。
拡張現実(Augmented Reality)は、人間が知覚する現実環境をコンピュータにより拡張する技術である。本発明は、カメラ等で撮影した現実空間に、3D−CADやCG(Computer Graphics)等の技術で構築された仮想空間を重ねて拡張現実空間を生成し、このような拡張現実空間を活用して、機器などの機械的締結部の管理を行うものである。
従来、工具や計測器を経由して取得したボルトやフランジ等の締め付けに関する情報と、作業に供した工具および計測器データや作業員等のID情報とを関連付けてトレーサビリティを確保することで高品質な作業管理を実現する作業管理システムが知られている(たとえば、特許文献1参照)。
特許第5065851号公報
特許文献1に記載の作業管理システムは、フランジ締め付けに関わる個々のボルト締結作業データについて、それを設定、計測した締め付け工具や計測器や用いられたボルト等のトレーサビリティを確保することができ、人為的な誤りによる設定締め付けトルクの目標値又は設定締め付け代の目標値の入力ミスや、実測締め付けトルク値や実測締め付け代の記載ミスを防止することが可能なシステムである。
しかしながら、特許文献1に記載の作業管理システムは、フランジ締め付けに関わる全てのボルトにRFICタグを備える必要がある。さらに、これらのボルトに備えられるRFICタグの情報を送受信するためには、こられのボルトを把持するヘッド部にまで延伸したアンテナを有する締結工具を準備する必要があるので、その運用コストが大きくなる懸念がある。
そこで、本発明の目的は、締結部にRFICタグ等の識別標識を付加することなく、これらの締結部と締結工具との間のデータの送受信を必要とせず、予定通りに所定の作業が進行していることを容易に記録でき、運用コストの小さい、高品質な機械的締結部の管理方法やシステムを提供することである。
上記課題を解決するために、代表的な本発明の拡張現実による機械的締結部の管理方法の一つは、現実空間に仮想空間を重ねて生成した拡張現実空間を用いた機械的締結部の管理方法であって、前記現実空間は、現実締結部と、前記現実締結部に被せられる現実工具と、を含み、前記仮想空間は、仮想締結部と、前記仮想締結部に被せられる仮想工具と、を含み、前記拡張現実空間では、前記現実締結部と、前記仮想締結部と、が一対一に対応しており、前記拡張現実空間を生成する拡張現実構成システムは、前記現実空間を撮影するカメラと、前記カメラが接続するとともに前記カメラが設営する画像を解析する拡張現実サーバと、を有しており、前記管理方法は、前記現実工具のヘッド部を前記現実締結部に被せることによって、前記現実締結部が締結対象に選定されるとともに、前記現実締結部が締結対象に選択された情報が前記仮想締結部に伝達される締結対象確定ステップを含む。
本発明によれば、締結部にRFICタグ等の識別標識を付加することなく、これらの締結部と締結工具との間のデータの送受信を必要とせず、予定通りに所定の作業が進行していることを容易に記録でき、運用コストの小さい高品質な機械的締結部の管理方法やシステムを実現することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
図1は、拡張現実による機械的締結部の管理方法に係わるシステム構成の模式図である。 図2は、図1のシステム構成に含まれるヘッドギアの機能的構成を示す模式図である。 図3は、本発明の拡張現実による機械的締結部の管理方法を説明するための締結を含む組立作業の一例である。 図4は、図3の組立作業に含まれる一工程であって、現実空間において部品が基盤に位置決めされた様子を示す模式図である。 図5は、図3の組立作業の最終工程であって、仮想空間において部品が基盤にボルトで固定された様子を示す模式図である。 図6は、図3の組立作業に含まれる一工程であって、図4の現実空間に図5の仮想空間を重ねて創られた拡張現実空間において、部品が基盤にボルトで固定された完成状態を示す模式図である。 図7は、図6の拡張現実空間において現実部品の貫通孔に現実ボルトを差し込まれた状態からボルトの締結管理を開始する様子を示す模式図である。 図8は、本発明の拡張現実による機械的締結部の管理方法を説明するフローチャート(前半)である。 図9は、本発明の拡張現実による機械的締結部の管理方法を説明するフローチャート(後半)である。 図10は、現実空間において工具がボルトに被せられて締結対象に選定された情報が仮想空間の当該ボルトに伝達される「締結対象に確定」が意味する範囲を示す模式図である。 図11は、工具でボルトを締め付ける際に観察される締め付けトルクの推移とフローチャートの特定のステップとの関係を示す模式図である。 図12は、締結完了を示す表示色に変更されたボルトと、このボルトの近傍に表示される締結管理情報と、を含む透過型ディスプレイに表示された拡張現実空間の画像をキャプチャした模式図である。 図13は、部品を基盤に取り付ける設計図情報の一例である。 図14は、部品を基盤に取り付ける作業情報の一例である。 図15は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象物に確定される手順(S90)の一例である。 図16は、工具のヘッド(ソケット)部の位置を示す複数の印を備える現実工具の一例である。 図17は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象物に確定される手順(S90)の他の一例である。 図18は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象物に確定される手順(S90)のその他の一例である。 図19は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象物に確定される手順(S90)のその他の一例である。
以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。
以下、図面を参照して本発明を実施するための形態を説明する。本明細書での現実空間とは、作業者が自らの視覚で得た像、または、カメラ10が撮影した像が置かれる空間を意味するものである。また、本明細書での仮想空間とは、3D−CADやCGなどデジタル情報で構築された空間を意味するものである。以下、現実空間の物品等と、仮想空間の物品等を区別するために、現実空間における物品等に「現実」の接頭語を付加し、仮想空間における物品等に「仮想」の接頭語を付加して記述する。
<システム構成>
図1は拡張現実による機械的締結部の管理方法に係わるシステム構成の模式図であり、図2は図1のシステム構成に含まれるウエアラブル装置(ヘッドギア等)の機能的構成を示す模式図である。
図1に示されるシステム構成は、部品図や組立図や3D−CADやCG等の設計図情報(図12参照)を格納する設計情報サーバ22と、部品の取付け作業情報や保守(メンテナンス)作業情報(図13参照)を格納する作業情報サーバ26と、現実工具RTで機械的締結部(すなわち、現実締結部)を締結する際の締め付けトルクを管理するトルク管理サーバ28と、大規模な画像解析を可能にする解析サーバ29と、が接続されるネットワーク5と、このネットワーク5に接続する現実工具RTおよび作業者が備えられるウエアラブル装置7と、から構成される。
図2に示されるウエアラブル装置7は、作業者の頭に装着できるように構成されており、作業者の視界を形成する透過型スクリーン14(ヘッドマウントディスプレイ装置)と、カメラ10と、これらが接続される拡張現実サーバ12と、から構成される。拡張現実サーバ12は、カメラ10が撮像する現実空間(実体)に、ネットワーク5に接続する設計情報サーバ22から得た3D−CAD情報等の仮想空間の情報を重ね合わせた拡張現実空間を構成するとともに、これらの拡張現実空間を透過型スクリーン14に投影する。拡張現実サーバ12は、拡張現実を創生するアプリケーションソフトや各種情報(例えば、設計情報等)を保管するメモリ領域と、作業者がウエアラブル装置7を介して示す要求事項を処理する処理部と、を有するコンピュータである。
透過型スクリーン14は、作業者が視界を確保できるように透過性を備えており、カメラ10が撮影した現実空間の撮像や、拡張現実サーバ12が創る仮想現実空間をこの透過型スクリーン14に投影できる。なお、この時、透過型スクリーン14に投影される現実空間は、作業者が自らの視覚で得る像と実質的に同じ像である。また、拡張現実サーバ12は、作業手順等の情報や各種マニュアル等の情報を透過型スクリーン14に表示して、作業者の利便性をさらに向上させてもよい。
拡張現実サーバ12は、ネットワーク5および現実工具RTとに無線で接続されているので、現実工具RTはネットワーク5を介して、トルク管理サーバ28から所定の現実ボルトに対応する締め付けトルク情報を受信したり、現実工具RTは観察された締め付けトルク情報を拡張現実サーバ12およびトルク管理サーバ28へ送付したりする送受信部を有する。
拡張現実サーバ12は、カメラ10と一体に構成しても良いし、ネットワーク5を介して、拡張現実サーバ12が有するメモリ領域や処理部を、作業場から離れた場所に設けても良い。
現実工具RTは、ボルト等の機械的締結部を締めたり緩めたりする工具である。この現実工具RTは、例えば、ボルトサイズや種類に対応するヘッド部についたソケットを交換できるトルクレンチであって、また、ヘッド部はスパナ形状やモンキレンチ形状など様々なトルクレンチ形状であってもよい。現実工具RTは、現実ボルトRBnを締める際に観察される締め付け初期時から締め付け完了時までの締め付けトルク情報や、既に締め付けられたボルトを緩めるときに計測される残留トルク情報を取集して、拡張現実サーバ12やネットワーク5を介してトルク管理サーバ28等に提供する機能を備える。
さらに、現実工具RTは、拡張現実サーバ12またはトルク管理サーバ28から得た任意のボルトサイズおよびボルト材質に対応する締め付けトルク情報や、現実ボルトRBnが所定の締め付けトルクで締結された情報を作業者に掲出する表示部(図示なし)を備える。なお、この表示部は、作業者に上記情報を伝達することが目的であるので、現実工具RTに表示部を併設することに代えて、これら情報を透過型スクリーン14に表示したり、作業者の手首等に備える別のウエアラブル端末の表示部に表示しても良い。
作業情報サーバ26は、製造物(例えば、鉄道車両や自動車など)の製作内容が示される製作作業指示書や保守作業の内容が示される保守作業指示書などを格納する。拡張現実サーバ12の要求に応じて、作業情報サーバ26はこれらの作業指示書から必要なデータを抽出して提供する。
なお、設計情報サーバ22、作業情報サーバ26およびトルク管理サーバ28は、それぞれ設計情報、作業情報、トルク管理に関する情報を共有したり保管したりするファイルサーバである。
作業情報サーバ26は、必ずしも設計情報サーバ22から独立している必要はなく、作業情報サーバ26と設計情報サーバ22とを共通の1台の情報サーバとして運用してもよい。解析サーバ29は、カメラ10が撮影した画像を大規模に(画像)解析して、作業対象物の詳細な現実空間または仮想空間における座標(例えば、3次元的な位置を示す座標)を得る場合などに用いる。
<作業内容>
図3は、本発明の拡張現実による機械的締結部の管理方法を説明するための締結を含む組立作業の一例である。この組立作業は、現実空間において、現実部品RD2を4本の現実ボルトRB1〜RB4(以下、RBn(n=1〜4)、または、単にRBnと記す)で現実基盤RD1に固定する作業である。現実基盤RD1は、現実部品RD2を貫通した現実ボルトRBnが螺合するねじ溝を有する現実ねじ穴RQ1〜RQ4と、現実空間の基準位置を示す現実位置マーカRMを有する。現実部品RD2は、その4隅に現実ボルトRBnが垂直方向に貫通する現実貫通孔RP1〜RP4を備える。
<現実空間に仮想空間を重ねて構成される拡張現実空間における締結部管理の概要>
図4は、図3の組立作業に含まれる一工程であって、現実空間で部品が基盤に位置決めされた様子を示す模式図である。図5は、図3の組立作業の最終工程であって、仮想空間で部品が基盤にボルトで固定された様子を示す模式図である。図6は、図3の組立作業に含まれる一工程であって、図4の現実空間に図5の仮想空間を投影した拡張現実空間において、部品が基盤にボルトで固定される作業が完了した様子を示す模式図である。
図4は、作業者が、自らの視覚で得た現実空間の像であり、現実基盤RD1の上面の固定位置に、現実部品RD2が位置決めされている図である。図5は、仮想空間(デジタル空間)で、仮想基盤ID1に仮想部品ID2が仮想ボルトIB1〜IB4(以下、IBn(n=1〜4)、または、単にIBnと記す)で取り付ける作業が完了した後の姿(3D−CADデータの組立図)である。この3D−CADデータは、設計情報サーバ22、または、ウエアラブル装置7の拡張現実サーバ12に格納されていてもよい。
図6は、図3の作業に含まれる一工程であって、図4の現実空間に図5の仮想空間を重ねて創られた拡張現実空間において、部品が基盤にボルトで固定された完成状態を示す模式図である。
透過型スクリーン14に創り出された拡張現実空間の像(図6相当)を映し出すために、拡張現実サーバ12は、まず、カメラ10で、現実基盤RD1に現実部品RD2が位置決めされている状態(図4相当))を撮影(取得)する。次に、拡張現実サーバ12は、設計情報サーバ22から仮想空間の3D−CADデータ(組立図)を取得する。そして、拡張現実サーバ12は、撮影した現実空間に、仮想空間から3D−CADデータを重ねて拡張現実空間を創り出す。
なお、この時、拡張現実サーバ12は、現実基盤RD1の一端にあらかじめ備えられた現実空間の基準点RMに、仮想基盤ID1の一端の仮想空間の基準点IMを重ねれば、拡張現実空間を容易に創り出すことができる。拡張現実サーバ12は、創生した拡張現実空間を透過型スクリーン14に映し出す。但し、この時点では、現実ボルトRBnは現実部品RD2の貫通孔RPnにまだ差し込まれていない。
図7は、図6の拡張現実空間において現実部品の貫通孔に現実ボルトを差し込まれた状態からボルトの締結管理を開始する様子を示す模式図である。図7は、透過型スクリーン14に投影された拡張現実空間(図6相当)を構成する現実部品RD2の現実貫通孔RPnに、現実ボルトRBnを差し込んだ状態の図である。現実ボルトRBnの首下のねじ部が現実基盤RD1の現実ねじ穴RQnにねじ込まれていないため、現実ボルトRBnの頭部は、仮想ボルトIBnの頭部に比べて高さ方向に突出している。
拡張現実空間は、現実空間の基準点RMに仮想空間の基準点IMを重ねて創り出されているので、現実部品RD2の現実貫通孔RPnに差し込まれた現実ボルトRBnは、仮想空間の仮想ボルトIBnに一対一に対応する(重なる)。つまり、現実空間の現実ボルトRBnの座標(例えば、ボルトの頭部の中心座標)は、仮想空間の仮想ボルトIBnの座標に実質的に重なる。
ただし、図7の場合は、現実ボルトRBnが現実基盤RD1の現実ねじ穴RQnにねじ込まれていないので、厳密には、現実ボルトRBnのRX−RY平面の座標は、仮想ボルトIBnのIX−IY平面の座標に重なるが、現実ボルトRBnのRZ軸上の座標は仮想ボルトIBnのIZ軸上の座標に重ならない。
上記の仮想現実空間を生成する際に、現実基盤RD1に備えられる現実基準点RMに、仮想基盤の仮想基準点IMを重ねて生成されることを説明したが、必ずしも現実基準点RMおよび仮想基準点IMを準備する必要はない。これら基準点に代えて、例えば、現実基盤RD1および仮想基盤ID1の4隅の内の一つを基準点として現実空間に仮想空間を重ねて、拡張現実空間を生成してもよい。
<拡張現実による締結部の管理>
図8と図9は、本発明の拡張現実による機械的締結部の管理方法を説明するフローチャート(前半)と(後半)である。以下に、図3に示す作業を例に挙げ、ウエアラブル装置7(ヘッドギア)を装着した作業者が、拡張現実空間において、図7の状態からボルトを締結する際の拡張現実による管理方法をステップ毎に説明する。
ステップ10(S10)では、拡張現実による締結部の管理が開始される。
ステップ30(S30)では、拡張現実サーバ12がカメラ10で現実基盤RD1の上面に位置決めされた現実部品RD2を撮影して、現実空間情報(図4相当)を取得する。
ステップ40(S40)では、拡張現実サーバ12がネットワーク5を経由して設計情報サーバ22から仮想空間情報(3D−CAD情報、図5相当)を取得する。仮想空間情報(図5相当)が拡張現実サーバ12に保管されている場合には、拡張現実サーバ12は、拡張現実サーバ12から仮想空間情報(図5相当)を取得する。
ステップ50(S50)では、拡張現実サーバ12が、ステップ30で得た現実空間情報に、ステップ40で得た仮想空間情報を重ねて、拡張現実空間を創生する。なお、このとき、現実空間の基準点RMと仮想空間の基準点IMとを重ねるので、現実空間の任意の座標(RXn、RYn、RZn)は、仮想空間の任意の座標(IXn、IYn、IZn)に一対一に対応して重なる。
ステップ60(S60)からステップ160(S160)までは、ボルトの本数をループ回数とするループ処理である。
ステップ70(S70)では、拡張現実サーバ12は、拡張現実空間において、S50で得た仮想空間情報に基づいて、仮想ボルトIBnのいずれかを締結する順番に特定して、締結するボルトを作業者に教示する。締結する順番に、特定された仮想ボルトを作業者へ教示する方法は、例えば、作業者が透過型スクリーン14に投影される拡張現実空間において、特定した仮想ボルトIBnの色を変更したり、点滅表示したりすることが可能である。
ステップ80(S80)では、作業者はS70で教示された仮想ボルトIBnが重ねられた現実ボルトRBnに現実工具RTを近づけて、現実ボルトRBnの頭部に現実工具RTのソケット部RTHを被せる。
ステップ90(S90)では、作業者は透過型スクリーン14に投影される拡張現実空間において、締結する現実ボルトRBnに現実工具のソケット部RTHが重なったことを認めて、現実工具RTでこれから締結する現実ボルトRBnを「締結対象として確定」する作業が完了する。図10に、この「締結対象として確定する」が意味する範囲の模式図を示す。図10中の現実ボルトRBnは、拡張現実空間において仮想ボルトIBnに実質的に重なっているが、理解を容易にするために図中の現実ボルトRBnと仮想ボルトIBnを離して描写している。作業者は、S70での指示に基づいて、S80で現実空間において、現実工具RT(ヘッド部RTH)を締結する現実ボルトRBnに被せる。
S50では、現実ボルトRBnの座標を含む現実空間の任意の座標(RXn、RYn、RZn)は、仮想ボルトIBnの座標を含む仮想空間の任意の座標(IXn、IYn、IZn)に一対一に対応して重なることが確認されているので、現実ボルトRBnの「現実工具RTが重ねられて締結対象に選定された」情報は、仮想ボルトIBnに伝達される。したがって、「締結対象として確定する」は、現実工具RTが被せられて締結対象に選定されたという現実ボルトRBnの情報が、現実ボルトRBnに一対一に対応する仮想ボルトIBnに伝達されることを意味する。
S90では、締結対象物の現実ボルトRBnが確定しない場合はS70に戻り、再度、締結対象物の現実ボルトRBnを確定する。S90では、締結対象物の現実ボルトRBnが確定すれば、次のステップへ移行する。
ステップ100(S100)では、拡張現実サーバ12は、締結対象として確定した現実ボルトRBnに一対一に対応する仮想ボルトIBnの仮想空間における座標IBO(IBX1、IBY1、IBZ1)を、拡張現実サーバ12(または作業情報サーバ26等の任意サーバ)へ一時保存する。
ステップ110(S110)では、拡張現実サーバ12は、設計情報サーバ22またはトルク管理サーバ28(任意のサーバ)から現実ボルトRBnの締め付けトルク情報を取得して、現実工具RTに送信する。締め付けトルク情報は、ボルトサイズ、ボルト材質および使用環境等によって規定され、必要とされる(規定)軸力AFSを発生する締め付けトルク(N・m)である。現実ボルトRBnを締め付けた時に、現実ボルトRBnに生じる軸力AFは締付トルクに比例する。軸力AFを直接観察することは容易でないので、現実ボルトRBnの軸力AFに代えて、この軸力に対応する締め付けトルクTで、現実ボルトRBnの締結状況を管理する。以下、この締め付けトルクを規定締め付けトルクTSと記す。
ステップ120(S120)では、作業者は、現実工具RTで締結対象として確定した現実ボルトRBnの締め付けを開始する。
ステップ125(S125)では、作業者が現実工具RTで締結対象として確定した現実ボルトRBnを締め付け始めると、現実工具RTが締め付けトルクの発生を検知する。この時、拡張現実サーバ12は、カメラ10が撮影する像を画像解析して、現実工具のヘッド部RTHの座標RTHO(RTHX1、RTHY1、RTHZ1)が締結対象として確定した現実ボルトRBnの座標RBO(RBOX1、RBOY1、RBOZ1)と重なっているか、または、重なっていると判断できる程度に近接していることを確認する。このS125によって、締結対象として確定した現実ボルトRBnが現実工具RTによって締め付けられ始めたことを確認できる。
ステップ128(S128)では、現実工具RTは、検知した初期締め付けトルクTBを拡張現実サーバ12へ送信する。現実工具RTが、初期締め付けトルクTBが検知された日時情報を把握して、初期締め付けトルクTBと共に拡張現実サーバ12へ送付してもよいし、初期締め付けトルクTBを受信した拡張現実サーバ12が上述した日時情報を、初期締め付けトルクTBとともに仮想空間において締結対象として確定した現実ボルトRBnに対応する仮想ボルトIBnの締結管理情報30の一部として、任意のサーバに保存してもよい。
ステップ130(S130)では、作業者が現実工具RTで締結対象物の現実ボルトRBnを締めつづけると現実ボルトRBnに観察される締め付けトルクが規定締め付けトルクTSに達する。現実工具RTは、締め付け対象の現実ボルトRBnに観察される締め付けトルクが、S110で拡張現実サーバ12から受け取った規定締め付けトルクTSに至ると、現実工具RTが備える表示部のLEDが点滅したり、表示部の色を変えたりする等の動作によって、現実ボルトRBnが規定締め付けトルクで締め付けらたことを作業者に知らせる。
この規定締め付けトルクTSは、下限値(TSL)から上限値(TSH)に至る合格範囲を有しており、現実工具RTが備える表示部は、その締付トルクTLが合格範囲(下限値TSL)以下、合格範囲内、合格範囲(上限値TSH)以上をそれぞれ色分けで表現できる。なお、この現実工具RTが備える表示部の動作に代えて、これらの情報を透過型スクリーン14に表示したり、作業者の手首等に備える別のウエアラブル端末の表示部に表示しても良い。
現実工具RTは、作業者が締め付け動作を終了した時に観察される完了締め付けトルクTLを拡張現実サーバ12に送信する。なお、完了締め付けトルクTLは、所定締め付けトルクTSと実質的に同じか、あるいは、少し大きい値である。現実工具RTは、完了締め付けトルクTLが検知された日時情報を把握して、完了締め付けトルクTLと共に拡張現実サーバ12へ送付してもよいし、完了締め付けトルクTLを受信した拡張現実サーバ12が上述した日時情報を完了締め付けトルクTLに付加してもよい。
ステップ140(S140)では、完了締め付けトルクTLを受信した拡張現実サーバ12は、それを拡張現実サーバ12自身またはネットワーク5を経由してトルク管理サーバ28へ送信して、トルク管理サーバ28がそれを保存する。
ステップ150(S150)では、拡張現実サーバ12は、透過型スクリーン14に表示される締め付けが完了した現実ボルトRB1に一対一に対応する仮想ボルトIB1の表示色を、締め付け動作が完了していない他の仮想ボルトIB2〜IB4と異なる色に変更する。作業者は、締め付け終了(完了)した仮想ボルトと、締め付け動作が完了していない仮想ボルトを、表示される色の違いで区別できる。
ステップ155(S155)では、拡張現実サーバ12は、S150で表示色が変更された締め付け終了(完了)した仮想ボルトIB1の近傍に、例えば、作業者ID、締め付け完了日、締め付け完了時刻、設計図番などの締結管理情報30を透過型スクリーン14に表示する。
拡張現実サーバ12は、透過型スクリーン14に表示されたこれらの仮想ボルトIB1に一対一で対応する現実ボルトRB1の締め付け作業に係わった作業者ID、締め付け完了日、締め付け完了時刻、設計図番などの締結管理情報30を含む画像(静止画または動画)をキャプチャ(透過型スクリーン14画面のハードコピー)して、そのキャプチャした画像を拡張現実サーバ12またはネットワーク5を経由して作業情報サーバ26、あるいは、トルク管理サーバ28に保存する。
キャプチャした静止画に代えて、締め付け完了時刻を基準として、この時刻以前の所定の時間およびこの時刻以降の所定の時間に至る締め付け作業の動画を格納してもよい。この動画には、現実工具RTの表示部が現実ボルトRBnが規定締め付けトルクTSで締め付けられて、現実工具RTが表示部を介して作業者に締め付け完了を通知する様子も、締結管理情報30に加えて記録される。
ステップ160(S160)では、所定の締結対象ボルト本数だけ、S50に戻ってループを繰り返す。
ステップ170では、現実ボルトRBnまでの締結作業に係わる拡張現実を利用したボルトの締結管理に係わる一連の動作を終了する。
図11は、工具でボルトを締め付ける際に観察される締め付けトルクの推移とフローチャートの特定のステップとの関係を示す模式図である。図11の横軸は時間軸であり、その縦軸は現実ボルトRBnを現実工具RTで締め付ける際に現実ボルトRBnに観察される締め付けトルクである。
図11は、作業者が現実ボルトを締め始めて締め付けが完了する過程で観察される締め付けトルクの推移を示す。図11の横軸は時間を示し、その縦軸は現実ボルトRBnに生じる軸力AFを示す。軸力AFは、作業者が現実工具RTで現実ボルトRBnを締め付け始めた際に観察される傾斜部と、作業者が現実工具RTを戻す際に観察される水平部とが、締め付け回数だけ交互に観察される。水平部は、現実工具RTが次の締め付けに備えて戻される工程であり締め付けトルクは観察されない。
第1水平部で観察される軸力に対応して、初期締め付けトルクTBが検知され、第3水平部で観察される軸力に対応して、完了締め付けトルクTLが検知される。そして、この第3水平部に至る直前の第3傾斜部の終端部において、規定軸力AFSが生じており、この規定軸力AFSに対応する規定締め付けトルクTSが観察される。
次に、図9に示すフローチャートを用いて説明する。図9に示すフローチャートのS120は、図11の作業者が現実工具RTで締結対象物の現実ボルトRBnを締め付け始めた時の図11のA点(A:S120)に相当する。また、図9のS125は、上述のフローチャートのS120から現実工具RTが現実ボルトRBnを締め付け始めて、初期締め付けトルクTBが観察されるB点(B:S128)に相当する。また、図9のS130は、現実工具RTが現実ボルトRBnを規定締め付けトルクTSで締め付けを完了した時のC点(C:S130)に相当する。
図12は、締結完了を示す表示色に変更されたボルトと、このボルトの近傍に表示される締結管理情報とを含む透過型ディスプレイに表示された拡張現実空間の画像をキャプチャした模式図である。図12は、図9のフローチャートのS155を模したものであり、S60からS160までRBnの本数だけ繰り返される最初のループの最終工程である。
このとき、現実ボルトRB1のみの締め付けが完了しているため、現実ボルトRB1の頭部のみが、他の現実ボルトRB2〜4よりも、下方に沈み込んで仮想ボルトIB1の頭部に重なっている。締結が完了した現実ボルトRBnのみの表示色が灰色に変更されるので、作業者は、締結完了ボルトRB1と、締結が完了していない未締結ボルトRB2〜4を容易に区別することができ、締結作業忘れを抑制することが可能である。拡張現実空間において、現実ボルトRB1のみの締め付けが完了した画像に、作業者ID、締め付け完了日、締め付け完了時刻、完了締め付けトルク、設計図番等の締結管理情報30を付加した画像をキャプチャ(画像のハードコピー、あるいは、プリントスクリーン)して、任意のサーバに保存する。
<効果 (図12)>
図12に示す画像を作ることによって、現実ボルトRB1が、規定締め付けトルクで、誰(どの作業者)によって、どの設計図面に基づいて、いかなる作業内容が指示された時になされたものであるかを瞬時に把握することができる。
一般に、拡張現実空間の締結対象物の画像(図7相当)と、その締結対象物に付随する締結管理情報30(作業者ID、締め付け完了日、締め付け完了時刻、完了締め付けトルク、設計図番等)は、仮想空間(例えば、トルク管理サーバ28など)の仮想ボルトIBnに関連する(リンクする、あるいは、紐付けられる)情報として保存される。そして、必要に応じて、仮想空間の仮想ボルトIBnの関連情報として、仮想ボルトIBnの締結管理情報30がトルク管理サーバ28等から呼び出されて、拡張現実空間への表示によって要求者に提示される。
この仮想ボルトIBnと、仮想ボルトIBnに関連付けた締結管理情報30との関連(リンク、紐付け)情報が何らかの理由で毀損した場合、締結対象物に一対一に対応する締結管理情報30を呼び出すことができず、締結対象物に施された締結作業に基づく状態を把握することが極めて困難となる。そこで、図9のS155に記載の画像を取得して保存することによって、リンク(紐付)に係わる情報が毀損した場合であっても、締結対象物に施された締結作業に基づく状態を瞬時に把握できるので、トレーサビリティを確保できる。
図13は部品を基盤に取り付ける設計図情報の一例であり、図14は部品を基盤に取り付ける作業情報の一例である。設計図情報は、たとえば、図番、図面名称、機器(部品)名称、ボルトサイズ、ボルト首下長さ、ボルト材質、規定締め付けトルク、ボルト本数など、組立図に含まれる情報である。
作業情報は、たとえば、作業内容(名称)、作業日時、参照すべき設計図情報、作業者に従事される予定の作業者情報、作業対象となる車両情報、作業開始時刻、部品情報、作業場所、作業完了日時などである。
図15は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象物に確定される手順(S90)の一例である。拡張現実によって機械的締結部を管理する場合、締結管理情報30は仮想ボルトIBnに関連する情報としてトルク管理サーバ28などに格納される。このため、現実空間で締結対象として確定した現実ボルトRBnの情報が、この現実ボルトRBnに一対一に対応する仮想空間の仮想ボルトIBnに正確に関連付けられることが、拡張現実によって締結部を管理する上で重要となる。
<選定された現実ボルト情報が仮想ボルトに伝達されて締結対象として確定する手順の説明>
図8のS50では、現実空間の基準点RMと仮想空間の基準点IMとを重ねることによって生成される拡張現実空間において、現実空間の任意の座標(RXn、RYn、RZn)は、仮想空間の任意の座標(IXn、IYn、IZn)一対一に対応する。この対応関係が基本的に成立することを前提として、現実空間で現実工具のヘッド部RTHが被せられ締結対象に選定されたという現実ボルトRBnに係わる情報が、この現実ボルトRBnに対応する仮想ボルトIBnに伝達され(引き継がれる)て、締結対象として確定する(S90)手順を、以下のA1〜A7において説明する。
A1:拡張現実サーバ12は、現実空間において、カメラ10が撮影する図7相当の現実ボルトRBnを含む画像を解析して、現実ボルトRBnの座標RBO(RBX1、RBY1、RBZ1)を算出する。
A2:拡張現実サーバ12は、仮想空間に予め格納される3D−CADデータから仮想ボルトIBnを含む3Dモデル(例えば、図5に示す装置)を呼び出し、この3Dモデルに含まれる任意の仮想ボルトIBnの座標IBO(IBX1、IBY1、IBZ1)を取得する。
A3:拡張現実サーバ12は、拡張現実空間において、現実空間の現実ボルトRBnの座標RBO(RBX1、RBY1、RBZ1)が、仮想空間の仮想ボルトIBnの座標IBO(IBX1、IBY1、IBZ1)に重なっていること、あるいは、重なっていると判断できる程度に近接していることを把握する。以上説明したA1からA3は、現実空間に仮想空間を重ねて拡張現実空間を生成する過程である。この把握によって、拡張現実空間において、任意の現実ボルトRBnは任意の仮想ボルトIBnに一対一に対応することを再確認する。
図7に示すように、現実空間で、組立完了前の現実ボルトRBnが現実部品RD2の貫通孔RPn(n=1〜4)に差し込まれた状態のとき、現実基盤RD1にねじ込まれていない現実ボルトRBnの頭部は、ねじ込まれた状態の仮想ボルトIBnの頭部に重ならず、上方に少しずれた位置にある。このため、現実ボルトRBnの座標の平面を示すX座標とY座標は、仮想ボルトIBnの座標のそれらと実質的に重なるが、現実ボルトRBnの座標の高さを示すZ座標は、仮想ボルトIBnの座標のそれと一致しない。このため、現実ボルトRBnと仮想ボルトIBnとの重なり判定に、重なっていると判断できる程度に近接している判定を追加して、現実ボルトRBnと仮想ボルトIBnとの重なりを再確認する。
A4:拡張現実サーバ12は、現実空間において、カメラ10が撮影する作業者が現実工具のヘッド部RTHを任意の現実ボルトRBnに被せた様子から、この現実ボルトRBnが締結対象に選定されたことを把握する。
A5:拡張現実サーバ12は、現実空間において、カメラ10が撮影する現実工具RTに備えられる印RTM1(LEDランプ、2次元バーコードなどの印)を基準点として、この基準点から現実工具のヘッド部RTHの座標RTHO(RTHX1、RTHY1、RTHZ1)を幾何学的に算出する。
A6:拡張現実サーバ12は、現実空間において、現実工具のヘッド部RTHの座標RTHO(RTHX1、RTHY1、RTHZ1)と、現実ボルトの座標RBO(RBX1、RBY1、RBZ1)とを比較検証して、現実工具RTのヘッド部RTHの座標RTHOが現実ボルトの座標RBOに重なっているか、あるいは重なっていると判断できる程度の範囲内にあることを確認する。この確認によって、任意の現実ボルトRBnが締結対象に選定されたことを確認する。
A7:拡張現実サーバ12は、A3で現実ボルトRBn(座標RBO)が仮想ボルトIBn(座標IBO)に一対一に対応することを確認しているので、現実空間で現実工具のヘッド部RTHが被せられて締結対象に選定された現実ボルトRBnの情報は仮想空間の仮想ボルトIBnに伝達される。
以上の手順によって、現実ボルトRBnに一対一に対応する仮想ボルトIBnに、現実ボルトRBnが締結対象に選定された情報が伝達され、締結管理情報30等の付加情報が仮想空間の仮想ボルトIBnに関連する情報として任意のサーバに蓄積することが可能となる。
さらに、A5の構成を備えることによって、たとえば、現実ボルトRBnが遮蔽物に隠れるため、カメラ10が現実ボルトRBnを撮影できない場合であっても、拡張現実サーバ12は現実工具RTのヘッド部RTHの座標を得ることができるので、A6続いてA7へ進むことができる。
図16は、工具のヘッド(ソケット)部の位置を示す複数の印を備える現実工具の一例である。現実工具RTは、現実ボルトRBnの頭部に被せられるヘッド部RTHと、作業者が掴む現実工具のグリップ部RTGと、ヘッド部とRTHとグリップ部RTGとを接続する柄部RTEから構成される。垂直に配置された現実ボルトRTを締め付けるときの姿勢に配置された現実工具RTの柄部RTEの上面に、柄部RTEの軸方向に沿って、印RTM1、印RTM3、印RTM5が備えられる。同様の姿勢に保持された現実工具RTの柄部RTEの側面に、柄部RTEの軸方向に沿って、印RTM2、印RTM4が備えられる。
印RTMn(n=1〜5)は、各印RTMnからヘッド部RTHへ向く方向と、各印RTMnからヘッド部RTHへ至る距離L1〜L5を示すコードを有している。このため、例えば、ヘッド部RTHから印RTM2までの範囲が遮蔽物の陰になって、カメラ10がヘッド部RTHを撮影できない場合であっても、カメラ10は印RTM3〜RTM5を撮影することできる。例えば、カメラ10が印RTM3を明瞭に撮影できた場合、カメラ10の画像を受け取った拡張現実サーバ12は、印RTM3が備えるコードから−RX方向に距離L3の位置にRZ方向に沿う軸を備えるヘッド部RTHが存在することを把握できる。
このため、拡張現実サーバ12は、印RTM3に基づいて得たヘッド部RTHの情報に基づいて、ヘッド部RTHの座標RTHO(RTHX1、RTHY1、RTHZ1)を幾何学的に算出することができる。さらに、印RTMn(n=1〜3)と印RTMn(n=2、4)とは、柄部RTEの軸周りに90度ずれた位置に備えられる。
このため、RZ軸沿う軸を有する現実ボルトRBnを締め付ける場合、拡張現実サーバ12は、カメラ10が撮影する印RTMn(n=1〜3)の情報を参照し、RY軸沿う軸を有する現実ボルトRBnを締め付ける場合は主に印RTMn(n=2、4)の情報を参照して、ヘッド部RTHの座標を得ることができる。したがって、図16に示す現実工具であれば、現実ボルトRBnの締め付け姿勢に依らず、高い品質でヘッド部RTHの座標を得ることができる。
図17は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象として確定される手順(S90)の他の一例である。図15で説明したプロセスと共通の事項を省略し、図17の特有のプロセスを中心に、以下のB1〜B8において説明する。
B1からB3までは、図15で説明したA1からA3までの記述と実質的に同じであるため、ここではその説明を省略する。
B4:拡張現実サーバ12は、現実空間において、カメラ10で作業者が扱う現実工具RTを撮影してその形状を読み取る。
B5:拡張現実サーバ12は、予め仮想空間(任意のサーバ)に保存してある複数の仮想工具IT(3D−CADで作成したモデルなど)から、上述したB4でカメラ10が撮影した現実工具RTに一対一に対する仮想工具ITを選択して拡張現実空間に呼び出す。
B6:拡張現実サーバ12は、現実工具のヘッド部RTHの座標RTHO(RTHX1、RTHY1、RTHZ1)を基準点として、拡張現実空間において、現実工具RTに、B5で仮想空間から呼び出した仮想工具ITを重ねる。
B7:拡張現実サーバ12は、上述したB6で現実工具RTに仮想工具ITを重ねて仮想空間における仮想工具のヘッド部ITHの座標ITHO(ITHX1、ITHY1、ITHZ1)を取得するとともに、仮想工具のヘッド部ITHの座標を取得した以降の現実工具RTの動きに仮想工具ITを、仮想現実空間内で追随させる。
B8:拡張現実サーバ12は、作業者が現実工具RTを現実ボルトRBnに被せて締結対象に選定した時、現実工具RTに追随する仮想工具ITのヘッド部ITHの座標ITHO(ITHX1、ITHY1、ITHZ1)と、現実ボルトRBnに一対一に対応する仮想ボルトIbnの座標IBO(IBX1、IBY1、IBZ1)とを比較検証して、仮想工具ITのヘッド部ITHの座標RTHOが現実ボルトRBnの座標RBOに重なっているか、あるいは重なっていると判断できる程度の範囲内にあることを確認する。この確認によって、任意の現実ボルトRBnは締結対象として確定される。
以上のプロセスによって、拡張現実サーバ12は、B3で現実ボルトRBn(座標RBO)が仮想ボルトIBn(座標IBO)に一対一に対応することを把握しているので、現実空間で現実工具のヘッド部RTHが被せられて締結対象に選定された現実ボルトRBnの情報は、仮想空間の仮想ボルトIBnに伝達され締結管理情報30等の付加情報が仮想空間の仮想ボルトIBnに関連する情報として任意のサーバに蓄積することが可能となる。
上述したB4及びB5では、カメラ10が撮影した現実工具RTの形状に基づいて、その現実工具RT一対一に対応する仮想工具ITを呼び出している。現実工具RTに、この現実工具RTに対応する仮想工具IT情報を内蔵する印を貼りつけておき、カメラ10が撮影するこの印の情報に基づいて、拡張現実サーバ12が仮想空間から仮想工具ITを仮想現実空間に呼び出してもよい。
B7の構成を備えることによって、たとえば、現実ボルトRBnが遮蔽物に隠れるため、カメラ10が現実ボルトRBnを撮影できない場合であっても、拡張現実サーバ12は現実工具RTのヘッド部RTHの座標に一対一に対応する仮想工具ITのヘッド部ITHの座標を得ることができるので、B7に続いてB8、B9へ進むことができる。
図18は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象として確定される手順(S90)の他の一例である。図15および図17で説明したプロセスと共通の事項を省略し、図18の特有のプロセスを中心に、以下のC1〜C8において説明する。
C1からC3までは、図15(図17)で説明したA1(B1)からA3(B3)までの記述と実質的に同じであるため、ここではその説明を省略する。
C4:拡張現実サーバ12は、カメラ10が撮影する現実工具RTに備えられる3点(現実工具のヘッド部RTH、第1の印RTM1、第2の印RTM2)の印(マーカ)を撮影し、拡張現実空間において、現実工具のヘッド部RTHから下方に延伸する任意の長さの仮想線分ILH、同様に、第1の印RTM1の仮想線分IL1、第2の印RTM2の仮想線分IL3を生成する。
C5:拡張現実サーバ12は、拡張現実空間において、仮想線分ILHと、仮想線分IL1、及び仮想線分IL2の3点の終端を含む仮想平面IPLを生成する。
C6:拡張現実サーバ12は、拡張現実空間において、ステップ70が作業者に締結を促した仮想ボルトIBnの座標IBO(IBX1、IBY1、IBZ1)を通る仮想垂線IZLを生成する。
C7:拡張現実サーバ12は、拡張現実空間において、仮想平面IPL上の仮想線分IL1との接点SILHと、仮想平面IPLと仮想垂線IZLとの交点SIZLとの仮想平面IPL上の距離ID1を算出する。
C8:拡張現実サーバ12は、もっとも小さく算出された距離ID1の基となった仮想垂線IZLを有する仮想ボルトIBnを締結対象として確定されたと判断する。
以上のプロセスによって、拡張現実サーバ12は、C3で現実ボルトRBn(座標RBO)が仮想ボルトIBn(座標IBO)に一対一に対応することを把握しているので、現実空間で現実工具のヘッド部RTHが被せられて締結対象に選定された現実ボルトRBnの情報は、仮想空間の仮想ボルトIBnに伝達され締結管理情報30等の付加情報が仮想空間の仮想ボルトIBnに関連する情報として任意のサーバに蓄積することが可能となる。
C4’:C4で説明した仮想平面IPLを生成する方法に代えて、仮想ボルトIBnの座標IBOを含むIX−IY平面を仮想平面IPL’とし、現実工具のヘッド部RTHを通る仮想垂線ILHの仮想平面IPL’との交点をSILH’とする。そして、拡張現実サーバ12が、仮想平面IPL’状の仮想ボルトIBnの座標IBOと、交点SILH’との仮想平面IPL’上の距離ID1’を算出し、もっとも小さく算出された距離ID1’の基となった座標IBOを有する仮想ボルトIBnを締結対象として確定されたと判断する。
C4の場合、作業者が現実工具RTを傾けると、仮想空間IPLも現実工具RTに追随して傾くため、拡張現実サーバ12の解析負荷が大きくなるおそれがある。これに対して、C4’の場合、作業者が現実工具RTを傾けたとしても、仮想平面IPL’はその姿勢を維持して傾かず、現実工具のヘッド部RTHを通る垂線ILH’のみがその傾斜に追随して傾く。このため、拡張現実サーバ12の解析負荷が大きくなりにくく、小さい解析負荷で垂線ILH’を現実工具RTの傾斜に追随させることができ、仮想ボルトIBnを締結対象として確定されたと判断できる。
図19は、拡張現実空間において現実ボルトと一対一に対応する仮想ボルトが、現実工具で締結される締結対象物に確定される手順(S90)のその他の一例である。図15、図17および図18で説明したプロセスと共通の事項を省略し、図19の特有のプロセスを中心に、以下のD1〜D10において説明する。
D1からD3までは、図15(図17、18)で説明したA1(B1、C1)からA3(B3、C3)までの記述と実質的に同じであるため、ここではその説明を省略する。
また、D4からD5までは、図17で説明したB4からB5までの記述と実質的に同じであるため、ここではその説明を省略する。
D6:拡張現実サーバ12は、図8のステップ70で作業者に次に締結するボルトを示唆した仮想ボルトIBnの座標IBO(IBX1、IBY1、IBZ1)を取得する。
D7:拡張現実サーバ12は、仮想空間において、D4で呼び出したカメラ10が撮影した現実工具RTに一対一に対応する仮想工具ITを呼び出し、そのヘッド部ITHを、D6で取得した仮想ボルトIBnの座標IBO(IBX1、IBY1、IBZ1)に重ねる。
D8:拡張現実サーバ12は、D4で呼び出した仮想工具ITのヘッド部の垂直軸RZを、D6で取得した仮想ボルトIBnの座標IBO(IBX1、IBY1、IBZ1)のIZ軸に重ねて、すなわち、両者の垂直軸を重ねた状態で、IZ軸周りにIX−IY平面内で旋回する。
D9:拡張現実サーバ12は、作業者がS70に従って仮想ボルトIBnに対応する現実ボルトRBnの頭部に、現実工具RTのヘッド部RTHを重ねた時、D8で旋回する仮想工具ITが現実工具RTに重なる瞬間を捉える。
D10:拡張現実サーバ12はD9で旋回する仮想工具ITが現実工具RTに重なる瞬間を捉えた時、拡張現実サーバ12は仮想工具ITのヘッド部の座標ITHO(ITHX1、ITHY1、ITHZ1)に重なった現実工具RTのヘッド部の座標RTHO(RTHX1、RTHY1、RTHZ1)が重なったことを判断する。
そして、拡張現実サーバ12は、現実工具RTが被せられた現実ボルトRBnに一対一に対応する仮想ボルトIbnの座標IBO(IBX1、IBY1、IBZ1)と、仮想工具ITのヘッド部ITHの座標RTHO(RTHX1、RTHY1、RTHZ1)を比較検証して、仮想工具ITのヘッド部ITHの座標RTHOが仮想ボルトIBnの座標IBOに重なっているか、あるいは重なっていると判断できる程度の範囲内にあることを確認する。この確認によって、任意の現実ボルトRBnは締結対象として確定される。
D8の場合、拡張現実サーバ12は、作業者が拡張現実空間内で動かす現実工具RTに仮想工具ITに追随させる必要がないため、拡張現実サーバ12の解析負荷が大きくなることを抑制できる。このため、拡張現実サーバ12の解析負荷が大きくなりにくく、小さい解析負荷で現実工具RTを仮想工具IRに重ねることができるので、結果的に仮想ボルトIBnを締結対象として確定されたと判断できる。
以上説明したように、本発明の一態様は、現実空間に仮想空間を重ねて生成した拡張現実空間における拡張現実による機械的締結部の管理方法であって、前記現実空間は、現実締結部と、前記現実締結部に被せられる現実工具と、を含み、前記仮想空間は、仮想締結部と、前記仮想締結部に被せられる仮想工具と、を含み、前記拡張現実空間では、前記現実締結部と、前記仮想締結部と、が一対一に対応しており、前記拡張現実空間を生成する拡張現実構成システムは、前記現実空間を撮影するカメラと、前記カメラが接続するとともに前記カメラが設営する画像を解析する拡張現実サーバと、を有しており、前記管理方法は、前記現実工具のヘッド部を前記現実締結部に被せることによって前記現実締結部が締結対象に選定されるとともに、前記現実締結部が締結対象に選択された情報が前記仮想締結部に伝達される締結対象確定ステップを含む。
これにより、自動車整備などにおける機械的な締結作業において、締結部にRFICタグ等の識別標識を付加することなく、作業の進捗状況を容易に記録することができ、高品質かつ運用コストの小さい締結作業の実施が可能となる。
また、本発明の他の態様において、前記締結対象確定ステップに続いて、前記現実工具で前記現実締結部を締結する締結ステップと、前記締結ステップで前記現実締結部を締結した締結管理情報を取得する締結管理情報取得ステップと、前記拡張現実空間において、前記締結ステップが完了した締結完了画像と、前記締結完了画像に前記締結管理情報を付加した締結管理情報付加画像を保存する締結管理情報付加画像保存ステップと、を含む。
このように、締結作業が完了した様子を示す情報及び画像を取得し、保存することによって、締結作業が確実に完了したことを記録することができ、締結作業忘れを抑制することが可能となる。
また、本発明の他の態様において、前記現実工具は、前記現実締結部のトルク情報を送受信する送受信部と、前記送受信部で得たトルク情報を表示する表示部を備えており、締結管理情報付加画像保存ステップは、前記拡張現実構成システムが、前記現実締結部が規定トルクで締結された情報が前記表示部に表示されたことを検知した後に処理される。
このように、トルク情報を取得し、表示することにより、ボルト等の機械的締結部が規定のトルクで締結されているか否かが確認でき、締結作業の品質を向上させることができる。
また、本発明の他の態様において、前記現実工具が前記現実締結部を締め始めた時に観察される初期締め付けトルクが、前記現実工具が被せれて締結対象に選定された前記現実締結部に発生したことを記録する初期締め付けトルク保存ステップを含む。
このように、初期トルクが前記現実締結部に発生したことを記録することにより、締結作業忘れを抑制することができる。
また、本発明の他の態様において、前記現実工具は、前記ヘッド部と、作業者が把持する把持部と、前記ヘッド部と前記把持部とを接続する柄部と、から構成されており、前記柄部は印を備えており、前記印は、前記印から前記ヘッド部の方向を示す方向情報と、前記印から前記ヘッド部までの距離情報と、を備える。
このように、印からヘッド部の方向を示す方向情報と、印からヘッド部までの距離情報を備えることによって、締結部の位置を示す座標を算出ことができる。
また、本発明の他の態様において、前記締結対象確定ステップは、前記拡張現実サーバが、前記カメラが撮影した前記現実空間を解析して得た前記現実締結部の位置を示す現実締結部座標と、前記カメラが撮影した前記現実空間を解析して得た前記現実工具のヘッド部の位置を示す現実工具ヘッド部座標と、を取得し、前記現実工具のヘッド部の前記現実工具ヘッド部座標が前記現実締結部の前記現実締結部座標に重なっていることを検知し、前記現実締結部が一対一に対応する前記仮想締結部に、前記現実工具のヘッド部が被せられて前記現実締結部が締結対象に選択された情報を伝達する。
このように、現実締結部の位置を示す現実締結部座標と、現実工具のヘッド部の位置を示す現実工具ヘッド部座標を取得することによって、締結対象に選択されている締結部を特定することができ、締結作業の進捗状況をリアルタイムで記録することができる。
また、本発明の他の態様において、前記締結対象確定ステップは、前記拡張現実サーバが、前記カメラが撮影した前記現実空間を解析して前記現実締結部の位置を示す現実締結部座標を取得し、前記カメラが撮影した前記現実工具に対応する前記仮想工具を前記仮想空間から前記拡張現実空間に呼び出し、前記仮想工具は、前記現実工具に重ねるとともに前記仮想工具のヘッド部の位置を示す仮想工具ヘッド部座標を取得し、前記現実工具の動きに前記仮想工具を追随させて前記現実工具のヘッド部が前記現実締結部に被せられた時、前記仮想工具のヘッド部の前記仮想工具ヘッド部座標が前記現実締結部の前記現実締結部座標に重なっていると判断し、前記現実締結部が一対一に対応する前記仮想締結部に、前記現実工具のヘッド部が被せられた前記現実締結部が締結対象に選択された情報を伝達する。
また、本発明の他の態様において、前記締結対象確定ステップは、前記拡張現実サーバが、前記カメラが撮影した前記現実空間を解析して前記現実工具のヘッド部の位置を示す現実工具ヘッド部座標を取得し、作業者に締結を促した前記仮想締結部を含む仮想水平面を生成し、前記現実工具のヘッド部の前記現実工具ヘッド部座標を通過するとともに前記仮想水平面に交わる仮想垂線を生成し、前記仮想水平面内において、前記仮想垂線が前記仮想水平面に交わる交点と、前記仮想締結部の位置を示す仮想締結部座標と、の距離を検出し、前記距離に基づいて前記現実工具のヘッド部の前記現実工具ヘッド座標が前記仮想締結部の前記仮想締結部座標に重なっていると判断し、前記現実工具のヘッド部が被せられた前記現実締結部に一対一に対応する前記仮想締結部に締結対象に選択された情報を伝達する。
また、本発明の他の態様において、前記締結対象確定ステップは、前記拡張現実サーバが、拡張現実空間において、前記カメラが撮影した前記現実工具に対応する前記仮想工具を前記仮想空間から呼び出し、前記仮想工具のヘッド部の垂直軸を作業者に締結を促した前記仮想締結部の位置を示す仮想締結部座標の垂直軸に重ねるとともに前記仮想工具を両者の垂直軸の周りに水平面内で旋回させ、前記現実工具のヘッド部が前記現実締結部に被せられた時、旋回する前記仮想工具が前記現実工具に重なる瞬間を捉えた時、前記現実工具のヘッド部が重ねられて前記現実締結部が締結対象に選択された情報を前記仮想締結部に伝達する。
これによって、締結対象に選択されている締結部が確実に締結されているか否かを判定することができ、締結作業の品質を向上させることができる。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
RBn(n=1〜4)…現実ボルト(現実空間) RBO…現実ボルトの座標
IBn(n=1〜4)…仮想ボルト(仮想空間) IBO…仮想ボルトの座標
RPn(n=1〜4)…現実部品の貫通孔(現実空間)
RQn(n=1〜4)…現実基盤のねじ穴(現実空間)
AF…現実ボルトの軸力 AFS…現実ボルトの規定軸力
RD1…現実基盤(現実空間) RD2…現実部品(現実空間)
RM…現実空間の基準点 IM…仮想空間の基準点
RT…現実工具 RTH…現実工具のヘッド部
RTE…現実工具の柄部 RTG…現実工具のグリップ部
RTHO…現実工具のヘッド部の座標
RTMn(n=1〜5)…現実工具に付加された印(マーク)
IT…仮想工具 ITH…仮想工具のヘッド部
ITHO…仮想工具のヘッド部の座標
IPL…仮想平面 ILn(n=1〜3)…仮想垂線(線分)
ID1…仮想平面上の距離 SIZL…仮想垂線と仮想平面の交点
SIL1…仮想線分と仮想平面の接点 TL…完了締め付けトルク
TS…規定締め付けトルク TB…初期締め付けトルク
5…ネットワーク 7…ウエアラブル装置(ヘッドギア)
10…カメラ 12…拡張現実(AR)サーバ
14…透過型スクリーン(HMD) 22…設計情報サーバ
26…作業管理サーバ 28…トルク管理サーバ
29…解析サーバ 30…締結管理情報
RX,RY,RZ…現実空間の座標系 IX,IY,IZ…仮想空間の座標系

Claims (9)

  1. 現実空間に仮想空間を重ねて生成した拡張現実空間を用いた機械的締結部の管理方法であって、
    前記現実空間は、現実締結部と、前記現実締結部に被せられる現実工具と、を含み、
    前記仮想空間は、仮想締結部と、前記仮想締結部に被せられる仮想工具と、を含み、
    前記拡張現実空間では、前記現実締結部と、前記仮想締結部と、が一対一に対応しており、
    前記拡張現実空間を生成する拡張現実構成システムは、
    前記現実空間を撮影するカメラと、
    前記カメラが接続するとともに前記カメラが設営する画像を解析する拡張現実サーバと、
    を有しており、
    前記管理方法は、
    前記現実工具のヘッド部を前記現実締結部に被せることによって、前記現実締結部が締結対象に選定されるとともに、前記現実締結部が締結対象に選択された情報が前記仮想締結部に伝達される締結対象確定ステップを含むこと
    を特徴とする拡張現実による機械的締結部の管理方法。
  2. 請求項1に記載の拡張現実による機械的締結部の管理方法において、
    前記締結対象確定ステップに続いて、
    前記現実工具で前記現実締結部を締結する締結ステップと、
    前記締結ステップで前記現実締結部を締結した締結管理情報を取得する締結管理情報取得ステップと、
    前記拡張現実空間において、前記締結ステップが完了した締結完了画像と、前記締結完了画像に前記締結管理情報を付加した締結管理情報付加画像を保存する締結管理情報付加画像保存ステップと、
    を含むこと
    を特徴とする拡張現実による機械的締結部の管理方法。
  3. 請求項2に記載の拡張現実による機械的締結部の管理方法において、
    前記現実工具は、
    前記現実締結部のトルク情報を送受信する送受信部と、前記送受信部で得たトルク情報を表示する表示部を備えており、
    締結管理情報付加画像保存ステップは、
    前記拡張現実構成システムが、前記現実締結部が規定トルクで締結された情報が前記表示部に表示されたことを検知した後に処理されること
    を特徴とする拡張現実による機械的締結部の管理方法。
  4. 請求項3に記載の拡張現実による機械的締結部の管理方法において、
    前記現実工具が前記現実締結部を締め始めた時に観察される初期締め付けトルクが、前記現実工具が被せれて締結対象に選定された前記現実締結部に発生したことを記録する初期締め付けトルク保存ステップを含むこと
    を特徴とする拡張現実による機械的締結部の管理方法。
  5. 請求項4に記載の拡張現実による機械的締結部の管理方法において、
    前記現実工具は、
    前記ヘッド部と、作業者が把持する把持部と、前記ヘッド部と前記把持部とを接続する柄部と、から構成されており、
    前記柄部は印を備えており、
    前記印は、前記印から前記ヘッド部の方向を示す方向情報と、前記印から前記ヘッド部までの距離情報と、を備えること
    を特徴とする拡張現実による機械的締結部の管理方法。
  6. 請求項5に記載の拡張現実による機械的締結部の管理方法において、
    前記締結対象確定ステップは、
    前記拡張現実サーバが、
    前記カメラが撮影した前記現実空間を解析して得た前記現実締結部の位置を示す現実締結部座標と、
    前記カメラが撮影した前記現実空間を解析して得た前記現実工具のヘッド部の位置を示す現実工具ヘッド部座標と、
    を取得し、
    前記現実工具のヘッド部の前記現実工具ヘッド部座標が前記現実締結部の前記現実締結部座標に重なっていることを検知し、
    前記現実締結部が一対一に対応する前記仮想締結部に、前記現実工具のヘッド部が被せられて前記現実締結部が締結対象に選択された情報を伝達すること
    を特徴とする拡張現実による機械的締結部の管理方法。
  7. 請求項5に記載の拡張現実による機械的締結部の管理方法において、
    前記締結対象確定ステップは、
    前記拡張現実サーバが、
    前記カメラが撮影した前記現実空間を解析して前記現実締結部の位置を示す現実締結部座標を取得し、
    前記カメラが撮影した前記現実工具に対応する前記仮想工具を前記仮想空間から前記拡張現実空間に呼び出し、
    前記仮想工具は、前記現実工具に重ねるとともに前記仮想工具のヘッド部の位置を示す仮想工具ヘッド部座標を取得し、
    前記現実工具の動きに前記仮想工具を追随させて前記現実工具のヘッド部が前記現実締結部に被せられた時、前記仮想工具のヘッド部の前記仮想工具ヘッド部座標が前記現実締結部の前記現実締結部座標に重なっていると判断し、
    前記現実締結部が一対一に対応する前記仮想締結部に、前記現実工具のヘッド部が被せられた前記現実締結部が締結対象に選択された情報を伝達すること
    を特徴とする拡張現実による機械的締結部の管理方法。
  8. 請求項5に記載の拡張現実による機械的締結部の管理方法において、
    前記締結対象確定ステップは、
    前記拡張現実サーバが、
    前記カメラが撮影した前記現実空間を解析して前記現実工具のヘッド部の位置を示す現実工具ヘッド部座標を取得し、
    作業者に締結を促した前記仮想締結部を含む仮想水平面を生成し、
    前記現実工具のヘッド部の前記現実工具ヘッド部座標を通過するとともに前記仮想水平面に交わる仮想垂線を生成し、
    前記仮想水平面内において、前記仮想垂線が前記仮想水平面に交わる交点と、前記仮想締結部の位置を示す仮想締結部座標と、の距離を検出し、
    前記距離に基づいて前記現実工具のヘッド部の前記現実工具ヘッド部座標が前記仮想締結部の前記仮想締結部座標に重なっていると判断し、
    前記現実工具のヘッド部が被せられた前記現実締結部に一対一に対応する前記仮想締結部に締結対象に選択された情報を伝達すること
    を特徴とする拡張現実による機械的締結部の管理方法。
  9. 請求項5に記載の拡張現実による機械的締結部の管理方法において、
    前記締結対象確定ステップは、
    前記拡張現実サーバが、
    拡張現実空間において、前記カメラが撮影した前記現実工具に対応する前記仮想工具を前記仮想空間から呼び出し、
    前記仮想工具のヘッド部の垂直軸を作業者に締結を促した前記仮想締結部の位置を示す仮想締結部座標の垂直軸に重ねるとともに前記仮想工具を両者の垂直軸の周りに水平面内で旋回させ、
    前記現実工具のヘッド部が前記現実締結部に被せられた時、旋回する前記仮想工具が前記現実工具に重なる瞬間を捉えた時、前記現実工具のヘッド部が重ねられて前記現実締結部が締結対象に選択された情報を前記仮想締結部に伝達すること
    を特徴とする拡張現実による機械的締結部の管理方法。
JP2019565955A 2018-10-10 2018-10-10 拡張現実による機械的締結部の管理方法 Active JP6802547B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/037681 WO2020075232A1 (ja) 2018-10-10 2018-10-10 拡張現実による機械的締結部の管理方法

Publications (2)

Publication Number Publication Date
JP6802547B2 JP6802547B2 (ja) 2020-12-16
JPWO2020075232A1 true JPWO2020075232A1 (ja) 2021-02-15

Family

ID=70165186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019565955A Active JP6802547B2 (ja) 2018-10-10 2018-10-10 拡張現実による機械的締結部の管理方法

Country Status (5)

Country Link
US (1) US11270473B2 (ja)
EP (1) EP3865252B8 (ja)
JP (1) JP6802547B2 (ja)
CN (1) CN113784822B (ja)
WO (1) WO2020075232A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3043351B1 (fr) * 2015-11-09 2017-12-22 Airbus Operations Sas Procede et dispositif de controle du serrage d'un assemblage par une fixation filetee
US10699165B2 (en) 2017-10-30 2020-06-30 Palo Alto Research Center Incorporated System and method using augmented reality for efficient collection of training data for machine learning
US11443495B2 (en) * 2018-12-31 2022-09-13 Palo Alto Research Center Incorporated Alignment- and orientation-based task assistance in an AR environment
IT201900013077A1 (it) * 2019-07-26 2021-01-26 Scs Concept S R L Chiave dinamometrica elettronica con rilevazione di uso non corretto
JP7138303B1 (ja) 2022-02-04 2022-09-16 ジーダブルテクノロジー株式会社 締結作業支援プログラム
US20230326096A1 (en) * 2022-04-12 2023-10-12 Kabushiki Kaisha Toshiba Processing device, processing system, head mounted display, processing method, and storage medium
US11917289B2 (en) 2022-06-14 2024-02-27 Xerox Corporation System and method for interactive feedback in data collection for machine learning in computer vision tasks using augmented reality
SE2230337A1 (en) * 2022-10-20 2024-02-13 Atlas Copco Ind Technique Ab Control device and method for determining a joint identity of a tightened joint

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005954A (ja) * 1998-06-22 2000-01-11 Shimadzu Corp 情報提供システム
JP2006146584A (ja) * 2004-11-19 2006-06-08 Canon Inc 画像提示方法及び情報処理装置
JP2010020526A (ja) * 2008-07-10 2010-01-28 Ritsumeikan 操作システム
JP2015229210A (ja) * 2014-06-04 2015-12-21 パナソニックIpマネジメント株式会社 制御装置及びそれを用いた作業管理システム
JP2016091316A (ja) * 2014-11-05 2016-05-23 パナソニックIpマネジメント株式会社 作業管理装置、作業管理システム、及びプログラム
JP2017107349A (ja) * 2015-12-09 2017-06-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017167992A (ja) * 2016-03-17 2017-09-21 Kddi株式会社 ヘッドマウント装置、プログラム、作業支援システム及び情報処理装置
WO2017169907A1 (ja) * 2016-03-29 2017-10-05 日本電気株式会社 作業支援装置、作業支援方法および記録媒体
JP2018194914A (ja) * 2017-05-12 2018-12-06 富士電機株式会社 システム、方法、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5065851B2 (ja) 2007-10-19 2012-11-07 株式会社日立製作所 作業管理システム
JP5930708B2 (ja) * 2011-12-27 2016-06-08 三菱電機エンジニアリング株式会社 作業管理装置および作業管理システム
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
WO2015006334A1 (en) * 2013-07-08 2015-01-15 Ops Solutions Llc Eyewear operational guide system and method
CN106231160A (zh) * 2015-06-02 2016-12-14 株式会社理光 工作指令系统、图像处理设备和信息处理方法
US20170017301A1 (en) * 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
WO2017169909A1 (ja) * 2016-03-29 2017-10-05 日本電気株式会社 作業支援装置、ウェアラブル端末、作業支援方法および記録媒体
US20180098813A1 (en) * 2016-10-07 2018-04-12 Simbionix Ltd. Method and system for rendering a medical simulation in an operating room in virtual reality or augmented reality environment
US20180096531A1 (en) * 2016-09-30 2018-04-05 Daqri, Llc Head-mounted display and intelligent tool for generating and displaying augmented reality content
US10895950B2 (en) * 2016-12-09 2021-01-19 International Business Machines Corporation Method and system for generating a holographic image having simulated physical properties
KR102395030B1 (ko) * 2017-06-09 2022-05-09 한국전자통신연구원 가상 콘텐츠 원격 제어 방법 및 이를 위한 장치
WO2019218081A1 (en) * 2018-05-18 2019-11-21 Marion Surgical Inc. A virtual reality surgical system including a surgical tool assembly with haptic feedback

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005954A (ja) * 1998-06-22 2000-01-11 Shimadzu Corp 情報提供システム
JP2006146584A (ja) * 2004-11-19 2006-06-08 Canon Inc 画像提示方法及び情報処理装置
JP2010020526A (ja) * 2008-07-10 2010-01-28 Ritsumeikan 操作システム
JP2015229210A (ja) * 2014-06-04 2015-12-21 パナソニックIpマネジメント株式会社 制御装置及びそれを用いた作業管理システム
JP2016091316A (ja) * 2014-11-05 2016-05-23 パナソニックIpマネジメント株式会社 作業管理装置、作業管理システム、及びプログラム
JP2017107349A (ja) * 2015-12-09 2017-06-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017167992A (ja) * 2016-03-17 2017-09-21 Kddi株式会社 ヘッドマウント装置、プログラム、作業支援システム及び情報処理装置
WO2017169907A1 (ja) * 2016-03-29 2017-10-05 日本電気株式会社 作業支援装置、作業支援方法および記録媒体
JP2018194914A (ja) * 2017-05-12 2018-12-06 富士電機株式会社 システム、方法、及びプログラム

Also Published As

Publication number Publication date
EP3865252B1 (en) 2023-12-06
CN113784822A (zh) 2021-12-10
EP3865252A4 (en) 2022-05-18
US11270473B2 (en) 2022-03-08
EP3865252B8 (en) 2024-01-10
WO2020075232A1 (ja) 2020-04-16
EP3865252A1 (en) 2021-08-18
US20210350588A1 (en) 2021-11-11
CN113784822B (zh) 2023-09-26
JP6802547B2 (ja) 2020-12-16

Similar Documents

Publication Publication Date Title
JP6802547B2 (ja) 拡張現実による機械的締結部の管理方法
US10052765B2 (en) Robot system having augmented reality-compatible display
CN102193625B (zh) 图像处理设备、图像处理方法、程序以及图像处理系统
US9658614B2 (en) Light guided assembly system and method
US9008371B2 (en) Method and system for ascertaining the position and orientation of a camera relative to a real object
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
CN108604393B (zh) 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质
JP6491574B2 (ja) Ar情報表示装置
JP2006285788A (ja) 複合現実感情報生成装置および方法
JP2002008040A (ja) 三次元情報検出装置及び三次元情報検出方法
JP7414395B2 (ja) 情報投影システム、制御装置、及び情報投影制御方法
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP2009289046A (ja) 3次元データを用いた作業支援装置及び方法
TWI788796B (zh) 擴增實境的機械連結作業方法
US20230326096A1 (en) Processing device, processing system, head mounted display, processing method, and storage medium
JP2008070319A (ja) 物体計測装置および方法
WO2022176928A1 (ja) 教示装置
WO2018100631A1 (ja) 情報処理装置
KR102430282B1 (ko) 생산 라인에서의 작업자 위치 인식 방법 및 그 장치
CN114371819B (zh) 扩增实境屏幕系统及扩增实境屏幕显示方法
JP7424825B2 (ja) I/o信号情報表示システム
JP2020187778A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2023156237A (ja) 処理装置、処理システム、頭部装着ディスプレイ、処理方法、プログラム、及び記憶媒体
JP2016218839A (ja) Ar情報表示装置
JP2022110778A (ja) 作業支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6802547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350