JP2004213673A - 強化現実システム及び方法 - Google Patents

強化現実システム及び方法 Download PDF

Info

Publication number
JP2004213673A
JP2004213673A JP2004000708A JP2004000708A JP2004213673A JP 2004213673 A JP2004213673 A JP 2004213673A JP 2004000708 A JP2004000708 A JP 2004000708A JP 2004000708 A JP2004000708 A JP 2004000708A JP 2004213673 A JP2004213673 A JP 2004213673A
Authority
JP
Japan
Prior art keywords
local
remote
graphic
display
site
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004000708A
Other languages
English (en)
Inventor
John Pretlove
プレトロヴェ ジョン
Thomas Pettersen
ペテルセン トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB RES Ltd
ABB Research Ltd Sweden
Original Assignee
ABB RES Ltd
ABB Research Ltd Sweden
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB RES Ltd, ABB Research Ltd Sweden filed Critical ABB RES Ltd
Publication of JP2004213673A publication Critical patent/JP2004213673A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35482Eyephone, head-mounted 2-D or 3-D display, also voice and other control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36452Touch points with handheld probe, camera detects position and orientation probe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】強化現実システムを改善し、遠隔タスク又は処理を行う際に、遠隔操作者が実際に現場を経験しているかのような表示を可能にする。
【解決手段】ローカルサイトに可動に配置された画像取得のためのカメラ(19)と、図形を生成し、生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置(9)と、ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置(5)と、ローカルサイトと遠隔サイト間の情報通信のための通信リンク(1)と、さらに、遠隔サイトにおける位置と方向を特定するための特定装置(7)とを備える強化現実システムを提供する。登録装置は、特定された位置と方向に基づいて生成された図形表示を画像に登録するのに適しており、カメラは、特定された位置と方向に基づいてその位置と方向が決まるように構成されている。
【選択図】図1

Description

本発明は、ローカルサイトに可動に配置された画像取得のためのカメラと、図形を生成し、該生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置と、ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置と、ローカルサイトと遠隔サイト間の情報通信のための通信リンクとを備える強化現実システムに関する。
本発明は、さらに、図形情報を現地で取得された画像に重ねたものを含む強化現実ビューを遠隔地で表示する方法に関する。
本発明によるシステム及び方法は、タスク又は処理を行う位置から操作者が物理的に離れた所にいる状況で行われる、遠隔タスク及び処理に適している。例えば、本発明は、遠隔ロボットプログラミング、遠隔メンテナンス及び検査、並びに遠隔共同作業に関して有用である。
本発明は、さらに、工業ロボットのプログラミングを遠隔地で行うための、本発明によるシステムの使用に関する。
強化現実(AR)は、現実世界の表示にコンピュータが生成した情報を重ねる周知の方法である。理想的な強化現実に基づくビジョンでは、ユーザは実写とコンピュータにより生成された図形との差異を認識することができず、よって現実世界環境の認識を向上させることができる。今日では、強化現実技術は多くの用途に使用されている。強化現実は、例えば、メディア(気象予報)や医薬(体内器官の視覚化)業界で、共同作業環境(バーチャル会議室)で、ならびにメンテナンス及びサービスなどの作業を行う産業で使用されている。
伝統的なビジョンに基づく強化現実システムでは、コンピュータによって生成された情報が現実のローカルシーンに付加される。コンピュータによって生成された図形を重ねて遠隔環境を視覚化することを、以降、遠隔強化現実と称する。遠隔強化現実は、危険な環境における調査、ならびにサービス及びサポートタスクなど、タスクを物理的に行う地点から専門家が離れている場合に有益である。
強化現実システムにおけるユーザ間の共同作業が、これまでに文献に取り上げられている。これは、複数の遠隔ユーザの画像を、現実環境に重ね合わせた図形として取り入れることにより行うことができる。このようなシステムでは、強化現実に提供された会議のメンバーの画像を見ることにより、会議参加者が互いを視覚化することができる。さらに、遠隔ユーザは同じ強化現実環境に示されたバーチャル情報により通信することができる。しかしながら、遠隔ユーザは、別の視点から見た、現場のシーンの異なるビューを見ることはできない。
特許文献1により、強化現実画像をコンピュータネットワークにリンクすることが公知である。該文献には、少なくとも1つはARでなければならないが、それ以外はARでもARでなくともよい1又は複数のローカル局と、ARでもARでなくともよい1又は複数の遠隔局とを含む、インターネット上で動作する現実システムが開示されている。ローカル局と遠隔局は互いにネットワークで結ばれている。遠隔局は、データベース、高性能演算、及び遠隔局のユーザがローカルAR局のユーザと相互に関連できる方法など、ローカルAR局では利用できないリソースを提供できる。
開示されている1つの実施形態では、訓練生がローカルAR局に位置し、遠隔局に位置するインストラクターが訓練のモニタと管理を行う。メンテナンスの実施形態では、操作者がローカルAR局でタスクを実行し、情報と援助は遠隔AR局に置かれている。ローカルAR局はローカル局のユーザが使用する頭部搭載ディスプレイと、該頭部搭載ディスプレイに対して固定の位置に配置されたカメラと、図形表示を生成するソフトウェアを備えたコンピュータと、生成された図形表示を画像と混合して合成強化現実画像を作成するビデオミキサとを備えている。
頭部搭載ディスプレイは合成強化現実画像を含むビューの表示に適するようにつくられている。頭部搭載ディスプレイに示されるビューは、ローカルAR局のユーザの頭の位置と方向に基づいている。合成強化現実に関する情報は、ローカル局と遠隔局を結ぶネットワークを介して遠隔局に転送される。遠隔局は、転送された合成強化現実の表示に適した表示装置を備える。遠隔局に位置するユーザは、ローカル局で頭部搭載ディスプレイを装着したユーザとまったく同じビューを見ることができる。
特許文献2には、環境のコンピュータモデルを作成する環境モデラを備える、危険環境での処理のための強化現実メンテナンスシステムが開示されている。環境レンダラはそれぞれが1つの観察位置及び方向に対応する複数の画像を作成する。固定端で固定構造に取付けられた遠隔操作マニピュレータアームの先端には、ビデオカメラなどのユーティリティパッケージが取付けられている。アクチュエータはマニピュレータアームを環境内の所望の位置に移動させる。マニピュレータアームの位置と方向は、位置と方向の感知に適した装置により決定される。この情報はマニピュレータアームレンダラに渡され、マニピュレータアームレンダラは予め保存されたマニピュレータアームのモデルから、異なる複数の視点から見た画像を作成する。環境の計算されたビューを提供するための視点は、座標入力、又は予め作成された視点座標のリストから選択することにより操作者により決定される。それを環境レンダラに供給すると、環境レンダラは、選択された視点から見たときの、環境ジオミトリにより規定された形状に対応する画像を生成する。
マニピュレータアームの先端の位置と方向を組み合せることにより形成される、結果として得られた視点、及びユーティリティパッケージのオフセット移動により、ユーティリティパッケージの視点から見た環境のビューに対応する画像を環境レンダラは作成することができる。同様に、マニピュレータアームの先端の位置と方向はマニピュレータアームレンダラに供給される。マニピュレータアームレンダラは、環境レンダラが使用したものと同じ視点から見たマニピュレータアームの画像を生成する。ビデオミキサはマニピュレータアームの画像と環境の画像を重畳し、重畳された画像をモニタに表示する。これにより、操作者は、環境に対するマニピュレータアームの位置を視覚化することができる。
しかしながら、上述のシステムでは、遠隔操作者が、異なる視点からローカルシーンを見ることができない。
本発明は工業ロボットの遠隔制御に特に適している。塗装、研削及び研磨などのために高質のプログラムを生成するには、処理経験豊富な熟練したプログラマが必要である。これは、品質要件を満たすために処理に関する専門知識が重要である今日のプログラミングシステムの性質による。末端顧客の組織内にこの能力を築き、維持するには、時間、費用の両方が掛かる。遠隔地にいる専門家が複数の顧客のロボットプログラミングをサポート、又は実行すれば、費用を節減することができる。
米国特許出願公開第2002−0010734号 米国特許第5745387号
本発明の課題は、強化現実システムを改善し、遠隔操作者が遠隔タスク又は処理を行う際に、遠隔操作者が実際に現場を経験しているような表示を可能にすることである。
本発明の一態様では、冒頭に記載のシステムにより本発明の課題を解決する。当該システムは、遠隔サイトにおける位置と方向を特定するための特定装置をさらに備え、カメラは該特定された位置と方向に基づいて決定される位置と方向に配置されており、登録装置は該特定された位置と方向に基づいて生成された図形を画像に登録するように構成されていることを特徴とする。本明細書では、ローカルサイトは処理又はタスクが実行される位置を意味し、遠隔サイトは操作者が該処理又はタスクを行う位置を意味する。
本発明によるシステムにより、表示する視点を遠隔操作者が決定することができる。操作者は所望の視点に対応する位置と方向を特定し、該特定された位置と方向に基づいてカメラの位置と方向が調整され、該特定された位置と方向に基づいて図形が画像に登録される。本発明によるシステムにより、遠隔操作者は、ローカルサイトの環境を視覚化してコンピュータにより生成された複数の視点からの図形を重ねることができ、よって遠隔操作者は、ローカルサイトに仮想現実的に存在することができる。本発明の利点は、遠隔操作者がローカルシーンを複数の角度から見ることができ、バーチャル図形を重ね合わせることにより環境に対する認識を向上させることができることである。専門家はサービス及びサポートのためにローカルサイトまで移動しなくともよい。
本発明の1実施形態では、前記特定装置は、予め特定された固定の遠隔座標系に対する、遠隔サイトに位置する可動装置の位置と方向を決定するように構成された追随装置を備える。好適には、可動装置は操作者に装着されているか、操作者が携帯するものであり、よって操作者の位置と方向が表示されるビューを決定する。追随装置は独立した装置であるか、又は可動装置の一部である。追随装置は位置と方向を決定するために使用される任意の種類の従来型センサ又は従来技術でよい。好適には、前記可動装置は表示装置である。表示装置は手持ち型表示装置、又は頭部搭載型表示装置であることが好ましい。従って表示される視点は表示装置の位置と方向によって決まる。操作者が表示装置を携行する場合、操作者の実際の動きによりカメラの位置と方向、従って表示される視点が制御される。
本発明の好適な1実施形態では、当該システムは、ローカルサイトに位置するロボットをさらに備え、ロボットにはカメラが搭載されており、ロボットは、予め特定された固定のローカル座標系に対するその動きが、特定された位置と方向に基づいて決定されるように構成されている。好適には、ロボットの動きは可動装置の動きによって決定される。ユーザが可動装置を装着している場合、ロボットは操作者の動きに合わせて動く。本明細書では、ロボットは工業ロボットを意味する。ロボットは、マニピュレータと、マニピュレータの動きを制御する制御システムを備える。
本発明のさらなる実施形態では、当該システムは、図形表示を生成する図形生成器と、図形表示に基づいて図形を生成するように構成された登録装置を備える。図形表示は帯域幅をそれ程要さずに遠隔サイトとローカルサイト間で転送が容易であるため、まず図形表示を生成し、次いで図形表示に基づいて図形を生成することが有利である。
本発明のさらなる実施形態では、当該システムは、表示する図形に関連するデータをシステムに供給するための、遠隔サイトに位置する操作者入力手段を備える。表示すべき図形に関するデータを供給するための操作者入力手段を設けることにより、操作者は、バーチャル環境にバーチャル情報(注釈又は挿絵)を加えることができる。危険な、又は接近不可能な環境では、処理又は装置に対する特定の性質の検査を行うために、ロボットを導入する必要が生じることがある。これは、核放射線が存在する環境、深海、極端な温度条件下などに当てはまる。このような検査を行う専門家が遠隔地に位置する場合、遠隔強化システムにより、遠隔操作者に対し検査対象物の必要画像を供給することができる。本発明のこの実施形態は、遠隔操作者に対し実際の環境にバーチャル情報を付加する可能性を提供し、操作者のローカルシーンに対する認識を向上させる。例えば、遠隔ロボットプログラミングを行う際、バーチャル情報は、プログラムされたロボットパスと、ロボット処理の結果を示す処理関連情報を含む。遠隔検査のために、バーチャル情報は、実際の環境の温度又は放射線地図や、対象物又は構造の状況情報を含んでもよい。
本発明の好適な実施形態によれば、当該システムは、指示装置と、指示装置の位置を決定するための追随装置とをさらに備え、当該システムは指示装置の位置に基づいて指示部材が現在指し示す地点の図形表示を生成するように構成されている。好適には、指示装置は手持ち式である。このような指示装置は、例えば遠隔サイトにいる操作者がロボットパスを教示するのに使用される。さらなる実施形態では、システムは第2指示装置及び第2追随装置を具備し、該第2指示装置及び第2追随装置はローカルサイトに位置する操作者により使用される。
処理が実行されるローカルサイトにロボットプログラミングの技術を持つ職員がいないとき、又は処理の目的となる対象物のモデルが無い場合、ロボットプログラムの教示において指示装置は特に有益である。指示装置により、ロボットの所在地から遠隔して位置する処理専門家は、実際の目標対象物の画像に特定のタスクを実行することができる。指示装置を使用することにより、遠隔操作者は、仮想現実世界において地点を教示することによりロボットプログラミングタスクを実行することができ、教示された地点は図形表示により示される。遠隔操作者は頭部搭載型ディスプレイを装着することができ、該ディスプレイは、カメラから見た現実世界の図形表示にコンピュータにより生成された図形を重ねて写すことができる。コンピュータにより生成された図形は、例えば、指示装置、処理関連情報及びプログラムされたロボットパスを表す。指示装置はロボットパスのウェイポイントを特定するために使用され、操作者入力手段は処理関連情報をシステムに対して特定するために使用される。
本発明の1実施形態では、当該システムは、ローカルサイトにおける位置と方向を特定するための第2特定装置と、図形を生成し、生成された図形を、実際の環境又はローカルサイトの環境の画像に、第2特定装置により特定された位置と方向に基づいて登録する第2登録装置と、ローカルサイトの環境と該環境に投射された図形を含むビューを表示するように構成されたローカル表示装置とを備える。ローカルサイトの第2表示装置により、現場の操作者が遠隔地の操作者の動作を監督することができる。本発明のこの実施形態により、遠隔操作者とローカル操作者が、同時に、それぞれの視点から、同じコンピュータ生成図形が重ねられた同じ環境を見ることが可能である。同じ強化環境を共有することで、現場の操作者は遠隔操作者をサポートすることができる。遠隔操作者に示される視点は、遠隔操作者本人が決定した位置と方向(例えば操作者の手又は頭の位置)によって決定され、現場の操作者の視点はローカル操作者本人が決定した位置と方向により決定される。
本発明の1実施形態では、当該システムは、ローカルサイトに位置する第2可動装置を備え、第2特定装置は第2可動装置の位置と方向を決定する第2追随装置を備える。好適な実施形態では、第2可動装置はローカル表示装置である。ローカル表示装置は、例えば手持ち型の表示装置又は頭部搭載型ディスプレイである。これにより、実際の環境内での操作者の実際の動きをコンピュータ生成図形で説明することにより、遠隔操作者とローカル操作者間の共同作業が可能になる。システムのユーザ同士は共有するバーチャルな環境を通じて交流することができ、遠隔ユーザとローカルユーザの両方が視点を変えることができる。
本発明の1実施形態では、当該システムは、ローカルサイトに位置し、第2図形表示を生成する第2図形生成器をさらに備え、ローカル表示装置が第2図形表示を含むビューを表示するように構成されている。これにより、ローカル操作者が図形表示を生成し、表示されたビューに該図形を付加することができる。通信リンクは、ローカルサイトと遠隔サイトの間で生成された図形表示を通信するのに適した構成である。よって、ローカル操作者と遠隔操作者の両方が図形を修正でき、その一方で両方の操作者が異なる視点から同じ図形を見ることが可能である。図形又は合成強化現実画像全体ではなく、カメラからのビデオ信号と図形表示のみがローカルサイトと遠隔サイト間で転送されるため、通信帯域幅を削減することができる。
本発明の1実施形態では、当該システムは、第2可動装置に対して固定された位置に配置された、画像取得のための第2カメラと、第2カメラからの画像に生成された図形表示を登録し、合成強化現実画像を提供する第2登録装置を備え、ローカル表示装置は合成強化現実画像を含むビューを表示するように構成されている。本実施形態では、コンピュータ生成図形を現実世界の画像に融合させる。或いは、コンピュータ生成図形を操作者が装着する透過ガラスに表示する。生成された図形はガラスに投射され、よって操作者は現実世界と処理対象物に対する図形を見ることができる。
本発明の1実施形態では、遠隔表示装置は、遠隔サイトにおいて特定された位置と方向に基づく第1視角から見たビューを表示するように、ローカル表示装置は、ローカルサイトにおいて特定された位置と方向に基づく第2視角から見た、遠隔表示装置と同じビューを表示するように、それぞれ構成される。
本発明の1実施形態では、当該システムは、通信リンクを介してローカルサイトと遠隔サイトの間で音声を転送する手段を備える。これにより、遠隔操作者とローカル操作者は会話により通信することができる。好適には、前記通信手段は、遠隔サイト及びローカルサイトにマイク又はヘッドセットを備える。好適には、通信リンクはインターネットなどのネットワークである。
本発明の別の実施態様では、冒頭に記した方法により本発明の課題を解決する。当該方法は、ローカルサイトから物理的に離れている遠隔サイトにおいて位置と方向を特定する過程と、特定された位置と方向に従って、ローカルサイトに位置するカメラの位置決定及び方向付けを行う過程と、カメラから前記画像を取得する過程と、図形を生成する過程と、前記画像、前記図形、及び前記特定された位置と方向に基づいて合成強化現実画像を生成する過程と、合成強化現実画像を含むビューを表示する過程とを含む。
本発明のさらに別の実施態様は、コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、本発明による方法の過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品により本発明の目的を達成する。コンピュータプログラム製品は、コンピュータで読取可能な媒体、又はインターネットなどのネットワークを通じて提供される。
本発明のさらに別の実施態様は、プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、コンピュータに本発明による方法の各過程を行わせるコンピュータで読取可能な媒体により本発明の目的を達成する。
本発明の1実施形態では、当該システムは、表示部材とカメラとを備える手持ち型の表示装置を備える。好適には、手持ち型表示装置は、ユーザがディスプレイを通して直接見ているかのような印象を持つように構成される。手持ち型表示装置は、ユーザが折に触れてコンピュータ生成情報を見なければならないときに有効である。
本発明により、タスク又は処理(例えばロボットプログラムの生成)を遠隔地から実行することが可能になる。遠隔ロボットプログラミングに使用した場合の本発明の利点は、末端消費者がロボットプログラミング能力を有する職員を雇用及び訓練する必要がないこと、及び共同作業環境にプログラミング専門家の集団を有することでロボットプログラミングの効率が向上することである。
本発明の複数の実施例、及び添付図面により、本発明を以下に詳述する。
図1には、本発明の実施例による強化現実システムが図示されている。当該システムは遠隔サイトに位置する部分と、ローカルサイトに位置する部分とを備える。ローカル部と遠隔部は通信リンク1により相互に接続されている。1以上の遠隔操作者3は遠隔サイトに位置している。遠隔部は、図形表示装置5(例えば頭部搭載表示装置)と、固定の遠隔座標系(xR,yR,zR)に対する表示装置5の位置と方向を決定する追随装置7と、図形表示と強化現実画像を生成するのに必要なソフトウェアを備えるコンピュータ9と、コンピュータ9がローカルサイトと通信するための通信装置11とを備えている。好適には、追随装置7の位置と方向は表示装置5に対して固定されている。コンピュータ9は、例えば装着可能なコンピュータである。携帯情報端末(PDA)スクリーン等の異なる種類の手持ち型ディスプレイも使用可能である。
遠隔操作者3はまた、操作者が遠隔サイトの位置と方向を指し示すことを可能にするポンティング装置13を有する。指示装置13は、指示装置13の位置と方向を決定するための追随装置を備える。指示装置追随装置とディスプレイ追随装置から得られる位置と方向は、遠隔座標系(xR,yR,zR)に関連付けられており、該遠隔座標系はローカルサイトのローカル座標系(xL,yL,zL)に対応している。1変形例では、指示装置は、プッシュボタン等、操作者とシステムを相互に交流するのに適した複数のインタラクション手段を備える。該インタラクション手段は、例えば、処理に関する情報をシステムに入力するのに適している。或いは、操作者はキーボード又はその他任意の既知の入力手段により情報をシステムに供給する。
ディスプレイ追随装置7及び指示装置追随装置は、画像認識、加速度計、慣性センサ、ジャイロ、磁気追随装置、超音波、レーザ技術、及び全地球位置決定システム(GPS)等の、位置と方向を決定するための任意の従来技術に基づいている。
処理又は検査の対象物15がローカルサイトに位置している。システムのローカル部は、1又は複数のロボットマニピュレータ17と、ロボットアームの一端に搭載された、対象物15の立体又はモノスコープのビデオストリームを取得するためのカメラ装置19を備えている。ロボットに搭載されたカメラの位置と方向を決定するための追随装置を配置してもよい。或いは、ロボット制御システムからの情報に基づいてカメラの位置と方向を計算するシステムを設置してもよい。ロボットコントローラ20がロボットマニピュレータに接続されており、それによりリアルタイムで固定のローカル座標系(xL,yL,zL)に対して特定された位置と方向に従ってロボットアームを動かすことができる。以降、位置と方向のことをポーズと称する。ローカル部は、遠隔部通信装置11と通信する通信装置22をさらに備える。
システムを所望の目的に使用するために、固定の遠隔座標系(xR,yR,zR)及びローカル座標系(xL,yL,zL)を予め特定する必要がある。遠隔サイトのポーズ(7,13)は遠隔座標系に関連付けられており、ローカルサイトにおいて指定されたポーズはローカル座標系に関連付けられている。よって、遠隔操作者3が遠隔座標系に対してポーズを指定したとき、ローカル座標系の規定によりこの地点のポーズがローカル環境において規定される。
あらゆる種類のカメラを使用できるが、位置と方向に精度を求めると、カメラの種類は限定される。例えば、ウェブカメラ、ビデオカメラ、又はCCDカメラを使用することができる。別の実施形態では、立体画像を提供できるように配置された1以上(例えば2)のカメラを使用することができる。十分な自由度(好ましくは自由度5)を有する任意の既知の工業ロボットを使用できる。工業ロボットは互いに対して可動である複数のアームを有するマニピュレータと、アームの動きを制御する制御システムを備えている。
本発明の1実施例では、ローカル部に操作者がいなくてもシステムを操作することができる。本発明の別の実施例では、ローカル操作者が行うのは遠隔操作者のサポートである。ローカル部に操作者24が存在するとき、ローカル部は図形表示装置26(例えば頭部搭載型ディスプレイ)と、環境と対象物15の画像ストリームを取得するための、表示装置に搭載されたカメラ28と、ローカル座標系において表示装置26とカメラ28の位置と方向を決定する追随装置27と、カメラ28からのビデオストリームと生成された図形表示とに基づいて、図形表示と強化現実画像を生成するために必要なソフトウェアを含むコンピュータ32を備える。
カメラ28は表示装置26に対して固定の位置に搭載されている。好適には、表示装置は、カメラビューの軸に沿ってカメラの画像面内に配置される。別の実施例では、表示装置26は光学透過ディスプレイであり、ローカル操作者24は表示装置によりカメラストリーム無しで直接現実世界環境と対象物を見るため、カメラは不要である。ローカル部は手持ち型指示装置34と、ローカル座標系に対する該指示装置の位置と方向を決定する追随装置と、システムとのインタラクション手段とをさらに備える。好適には、コンピュータ32は装着可能なコンピュータである。
遠隔操作者3は表示装置5を装着しており、該操作者の動きは追随装置7により感知される。表示装置5と装着可能コンピュータ9間の通信は、有線又は無線リンクを介して行われる。コンピュータ9は、カメラ19からのビデオストリームと生成された図形表示に基づいて図形表示と強化現実画像を生成するのに必要なソフトウェアを含む。コンピュータ9はまた、所望のタスク又は処理(例えばロボットプログラムの生成)を行うためのソフトウェアを含む。最後に、コンピュータ9は以前に保存した情報を保存及び復元するための記憶媒体を含む。
指示装置13からコンピュータ9への情報通信は、有線又は無線リンクを介して行われる。追随システムの種類によって、指示装置13のポーズは、指示装置自体から得られるか、又は外部追随装置から得られる。通信装置11は、コンピュータ9からローカル通信装置22への通信を可能にするのに必要なソフトウェアとハードウェアを含む。コンピュータ9から通信装置11への通信は、有線又は無線通信リンクにより提供される。遠隔通信装置11とローカル通信装置22間の通信は、インターネット又はその他適当な通信リンクを介して行うことができる。
カメラ19がロボット17の先端に搭載されており、環境及び対象物15の画像を遠隔操作者3に転送する。ロボットコントローラ20は遠隔部のディスプレイ追随装置7から連続的に更新されるポーズを受信し、それにより該カメラは遠隔操作者3のポーズに従う位置へと移動する。指示装置34と表示装置26の位置はローカル部座標系に関連付けられる。ローカル操作者24は表示装置26を装着し、該表示装置はローカル環境と対象物15の強化現実ビューを操作者に提供する。表示装置26がビデオ透過型である場合、カメラ28を使用してローカル環境の画像を取得することができる。表示装置26が光学透過型である場合、カメラは不要である。
ローカル操作者24は指示装置34を使用してポーズを特定し、共有バーチャル環境とインタラクションさせる。指示装置34の位置はローカル座標系上で追随される。コンピュータ32はローカル強化現実ビューを生成するのに必要なソフトウェアを含む。コンピュータ32は、遠隔操作者が見た、処理又はタスクに関連した図形を生成する。コンピュータ32はまた、遠隔部又は他のローカル部から通信リンク1を介して転送された仮想現実世界の図形表示を含む図形装置を含む。従って、ローカルサイトと遠隔サイト間で、ビデオフォーマットの図形を転送する必要が無く、これにより通信帯域幅要件を低減することができる。コンピュータ32は、バーチャル図形表示、或いは、遠隔又はローカル操作者により与えられた処理又はタスク関連情報等の、処理関連情報を保存するために使用される記憶装置をさらに備える。ローカルサイトはまた、同様にシステムとインタラクションするさらに多くのローカル操作者を含むことができる。
図2は、本発明の1実施例による強化現実システムのブロック図である。遠隔サイトに位置するシステムの遠隔部は、ロボットに搭載されたローカルカメラ19から画像のビデオストリームを受信する。遠隔操作者3は指示及びインタラクション装置13を介してシステムと交流することができる。追随装置は指示装置のポーズを3Dで追随することを可能にし、また遠隔座標系を特定するためにも使用できる。ロボットをプログラミングする際に、ロボットパス上のウェイポイントの指定、及び処理関連情報の特定に指示装置13を使用することが可能であり、一方遠隔検査においては、指示装置を使用して検査するべき対象物又は構造にバーチャル情報を付加することができる。
指示装置13からの出力と、操作者がシステムに供給した情報は、適用装置36に転送される。適用装置36は、ロボットプログラムの生成や遠隔検査の支援といった所望の処理又はタスクを実行するために必要なソフトウェアを含む。図形装置37は、適用装置36に示された視覚情報の3D図形表示を生成する図形生成器を備える。図形装置37は、視覚化される複数の3D図形要素の仕様を有する。適用装置36からの図形の表示を保持することに加え、図形装置37はまた、他の遠隔部又はローカル部から得られたバーチャル図形表示全体を含む。全図形要素の位置は遠隔座標系に対して特定される。ロボットプログラミングの分野では、関連する視覚情報は、操作者が指定したウェイポイント、実際のロボットパス、及びタスクに特定の情報である。加えて、他の操作者が指し示すものの視覚的表示を操作者が得ることができるように、指示装置のポーズが提供される。生成された図形表示は登録装置38に転送される。記憶装置39により、適用作業に関連する情報の保存及びロードが可能である。
ディスプレイ追随装置7は、表示装置5のポーズに関する更新データを連続的に伝達する。ポーズデータは通信装置11に転送され、さらにロボットコントローラ装置20に転送される。ディスプレイ追随装置7からのポーズデータは登録装置38にも転送される。登録装置38は図形を生成し、また図形装置37の図形表示に基づいてカメラ装置19から得た画像に図形を登録し、よって合成強化現実画像を提供する。登録装置38はディスプレイ追随装置7から得たポーズデータを使用してコンピュータ生成図形を現実世界画像に重ねる。登録が正確に行われると、コンピュータ生成図形が現実世界のシーンに視覚的に添付される。組み合わされた画像は表示装置5に表示される。
ローカル通信装置22は、遠隔座標系上の遠隔表示装置5のポーズに関する情報を連続的に受信し、このデータをロボットコントローラ装置20に供給する。ロボットコントローラ装置20は、ローカル座標系上の同じポーズにロボットに搭載されたカメラ19を向ける。カメラ19は、シーンの画像を連続的に取得し、それは通信装置22に、さらに登録装置38に返送される。
図3は、ローカルサイトに所在するローカル部の別の実施例を示す。本実施例は、遠隔操作者とローカル操作者の共同作業について示されたものである。通信装置22は、遠隔操作者が特定した処理に関する特定の情報、遠隔表示装置5の現在のポーズ、及び遠隔指示装置13の現在のポーズと、遠隔図形装置37において生成された図形表示を受信する。受信された図形表示はローカルサーバ装置40に転送される。表示装置26に取り付けられたカメラ装置28は、ローカル現現実世界画像を生成する。カメラ28と表示装置26のポーズは、ローカル座標系に従って決定され、現現実世界シーンに図形モジュール44から生成されたコンピュータ生成図形を重ね合わせる登録装置42に転送される。図形モジュール44は、共有されるバーチャル環境に提供された図形要素の表示であるバーチャル図形情報を遠隔サイトから受信し、表示する。
ローカル操作者は、指示及びインタラクション装置34を使用してシステムと交流する。指示装置のポーズは、共有されるバーチャル環境において可視であるように、図形情報と共に提供される。ローカル操作者に関する図形表示は、通信装置22によって他の操作者に転送される。指示及びインタラクション装置34からの情報は、指示装置の図形表示を生成するローカル図形モジュール44に転送される。この図形表示は、ローカル登録装置42へ、サーバ装置40を介して通信装置22へ、及び遠隔通信装置11を介して遠隔図形装置37へと転送される。遠隔図形モジュールは、受信した図形表示を、遠隔部の情報に基づいて生成された図形表示に付加する。このようにして、遠隔操作者とローカル操作者は異なる視点から見た同一のビューを見ることができる。
サーバ装置40は、通信装置22を介して遠隔サイトからデータを受信する。さらに、サーバ装置40はローカル座標系に関する情報を保持している。サーバ装置40と通信する記憶装置46は、システム情報(例えば、適用作業関連情報、図形表示、及びローカル座標系等のシステム構成パラメータ)を記憶するために使用される。1又は複数のローカル操作者を、サーバ装置40に従属させることができる。
当該システムは、通信リンクを介して、遠隔操作者とローカル操作者の間で双方向に音声を転送することができるように構成されている。ローカル操作者と遠隔操作者の両方にマイクロフォンとヘッドセットを装備することにより、操作者が音声によって互いに通信することができる。
後述では、本発明による強化現実システムの使用法について説明する。ローカル操作者及び遠隔操作者のいずれもセッションを開始することができる。或いは、セッションの開始は予め設定される。まず、ローカル座標系を特定しなければならない。これを行う1つの方法に6点較正法があり、該方法では、操作者が座標系の位置と方向を規定する6点を特定する。ローカル追随装置によって与えられる全てのポーズ情報をこのローカル座標系に関連付ける。このローカル座標系に関連付けられたロボットの位置と方向も認知される必要がある。このように、遠隔地から特定された点もロボット座標系にマッピングすることができる。
遠隔操作者は表示装置を装着することによりシステムの操作を開始する。遠隔操作者は、次いで、ローカル座標系に対応する遠隔座標系を特定しなければならない。遠隔座標系は、ローカル座標系と同様にして特定することができる。遠隔追随装置により提供された全ポーズ情報を遠隔座標系に関連付ける。ローカルサイトでは、目標対象物がローカル座標系における所望の位置に配置される。
遠隔操作者がシステムの使用を開始すると、遠隔表示装置の動きがディスプレイ追随装置によって捕らえられ、通信リンクによりローカルアプリケーションサーバに転送される。次いで、ローカル通信サーバは、ロボットコントローラに対し、遠隔ディスプレイ追随装置により特定されたポーズにカメラを移動しろという指令を送る。ここで、ロボット搭載型カメラの位置は、遠隔座標系において追随装置が位置するのと同じ、ローカル座標系上のポーズへと移動する。
遠隔指示装置のポーズは遠隔座標系上で追随される。遠隔指示装置に関するポーズ情報はローカル通信装置に転送される。ローカル操作者が存在する場合、ローカル操作者のローカル表示装置上にコンピュータ生成図形を提供するために、遠隔操作者の指示装置の位置が使用される。よって、ローカル操作者は、実際のシーンに重ね合わせたバーチャル3D図形により、遠隔操作者の指示装置の動きをリアルタイムで視覚化することができる。
この段階において遠隔ユーザは所望の処理(例えばロボットプログラムの生成)を実行することができる。特定のタスクを実行する間、処理関連情報はコンピュータ生成3D図形と共に遠隔表示装置上に視覚化される。図形にローカルカメラからの現現実世界表示を重ね、遠隔座標系に対して固定する。これにより、目標対象物の画像にコンピュータ生成図形が付加されて、遠隔ユーザは目標対象物の周囲を仮想現実的に動くことができる。ローカルロボット搭載型カメラが遠隔操作者の動きに従って動くように、遠隔操作者の動きが捉えられ、ローカルロボット搭載型カメラに転送される。
遠隔ユーザが何らかのオフラインタスク(例えばロボットパスプログラムの生成)を実行する場合、ローカル操作者はまた、3Dコンピュータ生成図形がローカル表示装置に表示されることにより、遠隔操作者と同様に処理結果を視覚化することができる。処理の図形はローカル操作者から見た現現実世界表示に登録され、重ねられるので、ローカル操作者が新しい位置に移動すると、コンピュータにより生成された処理の図形がローカル座標系に固定されて視覚化される。
ローカル操作者が指示及びインタラクション装置も装着している場合、ローカル指示装置の位置はローカル操作者及び遠隔操作者に対して視覚化される。ローカル指示装置の位置がローカル座標系上で追随される。ローカル指示装置に関するポーズ情報が、ローカル及び遠隔通信装置を介して遠隔サイトに転送される。ローカル操作者の指示装置のポーズ情報は、遠隔表示装置及びローカル表示装置にコンピュータ生成図形を表示するために使用される。このようにして、遠隔操作者はローカル操作者の指示装置の動きを視覚化することができる。さらに多くの遠隔操作者がいる場合も、各遠隔操作者は他の遠隔操作者の指示装置の動きを視覚化することができる。
本発明による方法を実行するために使用されるソフトウェアは、当業者に既知のソフトウェアに部分的に基づいている。例えば、指示部材の位置と方向をARToolKitで生成することができる。ARToolKitはワシントン大学と広島大学によって開発されたもので、正確なコンピュータの視覚に基づく追随技術を使用した強化現実アプリケーションの構築を可能にする公開ソフトウェアライブラリである。適用業務インタフェイスのために、Open GLというソフトウェアを使用することができる。Open GLは、モデル修正、色、光及び陰影機能を含む2D及び3D機能のライブラリを提供している。マイクロソフト Vision SDKは、画像操作とコンピュータ上での分析を実行する書き込みプログラムのライブラリである。強化現実ソフトウェアには、点と線等の描画図形のアルゴリズム、異なる座標系間での位置と方向の転送、位置と方向のシーケンスリストの抽出及び生成、処理関連情報の獲得、並びに、異なる幅と方向の塗装を表す塗り分け点及び線等の、描画における先端図形が含まれる。
本発明は開示された実施例に限定されるものではなく、請求の範囲に規定される範囲内で変更及び修正可能である。例えば、1変形例では、遠隔サイトに、複数のカメラと、複数の表示装置と、複数の特定装置と、複数の図形生成器と、複数の登録装置を設置し、2以上の遠隔操作者が、同時に、ローカルサイトの環境と、それに重ねられた図形を自身のビューから見ることを可能にする。別の変形実施例では、ローカルサイトにも複数のカメラと、複数の表示装置と、複数の特定装置と、複数の図形生成器と、複数の登録装置を設置し、2以上のローカル操作者が、同時に、ローカルサイトの環境と、それに重ねられた図形を、複数の視点から見ることを可能にする。
1変形例では、操作者が位置と方向をシステムに供給する。例えば、操作者は1以上のジョイスティックにより位置と方向を特定する。この実施例では、表示装置は固定のコンピュータスクリーンである。
1実施例では、システムは手持ち型強化現実表示装置を備える。操作者は、コンピュータ生成図形を重ねた現現実世界を表示する手持ち型表示装置を携行する。コンピュータ生成図形は、プログラムされたロボットパス、処理特定情報、目標点及び作業等の処理関連情報を表示する。動きに基づく認識システムにより操作者の手の動きを使用するか、又は指示及びインタラクション装置を使用して、処理関連情報をシステムに対して特定する。
コンピュータ生成情報は、ロボットプログラミングのための操作者による入力を表示する。操作者は手持ち型ARディスプレイを利用して、新規ロボットプログラムを作成しながら自身の作業の結果を観察する。手持ち型ディスプレイは、ディスプレイと同じ視界が内蔵されたカメラを有する。該カメラは現実世界のライブビデオを取得する。システムは、操作者の入力を表示するコンピュータ生成図形に該ライブビデオを組み合わせ、且つ同期させ、それを手持ち型ARディスプレイ上に表示する。操作者は環境内で手持ち型ARディスプレイを自由に動かすことができるので、異なる視点から見た対象物を含むローカル環境にコンピュータ生成図形を重ねて見ることができる。操作者は、手持ち型ARディスプレイを介してその反対側を「覗き込む」ことで、実際の対象物に対して生成されたロボットプログラムを見ることができる。
本発明によるシステムを図4に示す。当該システムは、手持ち型インタラクション/指示装置1を備えており、該インタラクション/指示装置には、該インタラクション/指示装置の位置と方向を絶対座標系60上で決定するための追随システムが取り付けられている。或いは、当該システムは、絶対座標系において手又は指の、位置と方向を認識及び決定するための認識システムを有する、動きに基づく認識システムを備える。システムは、手持ち型表示装置62(例えば超小型PC又はPDA)をさらに備える。表示装置は表示部材64と、該表示装置64に搭載又は内蔵された、環境の画像ストリームを取得するためのカメラ8とを備える。カメラ8は表示装置64に対して固定の位置に設置される。表示装置は、カメラのビュー軸に沿って、カメラの画像面内に配置される。
当該システムは、表示装置の位置と方向を決定するための追随システム66をさらに備える。好ましくは、追随システムは表示装置の上に搭載される。システムはまた、現実世界表示に重ね合わせたコンピュータ生成図形情報の強化現実表示を生成するためのシステムを備える。操作者2の動きはディスプレイ追随システム66によって感知される。
装着可能なコンピュータ68は、カメラ8からのビデオストリームとコンピュータ生成図形とに基づいて強化現実環境を生成するのに必要なソフトウェアを含む。装着可能なコンピュータ68はまた、所望のタスク又は処理(例えばロボットプログラムの生成と到達可能性の確認)を実行するのに必要なソフトウェアを含む。さらに、装着可能コンピュータは、強化現実ビューを提供する図形を生成する。最後に、装着可能コンピュータは、以前に保存した情報を保存及び復元するための記憶媒体を含む。インタラクション/指示装置1から装着可能コンピュータ68への情報の通信は、有線又は無線リンクを介して行われる。操作者は、表示装置62を携行し、それにより環境の強化現実ビューを見る。表示装置は「ビデオ透過」型である。
ビデオ透過は、手持ち型AR表示装置に強化現実世界を生成及び表示するために使用される。表示装置に内蔵されたカメラは現実世界のライブビデオを取得するために使用される。カメラはディスプレイに対し、ユーザが表示装置を「介して」反対側を覗き込んだときに見るのと同じビューを提供するような位置に配置される。コンピュータ生成図形を組み合わせたライブビデオストリームはリアルタイムで表示装置に表示される。追加的な機能には、実際のカメラの焦点距離の出力によるカメラのズーミングが含まれる。これにより、システムは倍率を変更しながらコンピュータ生成図形を正確に表示することができる。追随システムに視覚に基づく追随を用いる場合、視覚に基づく追随にカメラを使用することもできる。
本発明の実施例による強化現実システムを示す。 本発明の実施例による、ローカル部と遠隔部を含む強化現実システムのブロック図である。 本発明の別の実施例による強化現実システムのローカル部のブロック図である。 手持ち型表示装置を備えた本発明の実施例を示す。
符号の説明
1 通信リンク
3 遠隔操作者
5 図形表示装置
7 追随装置
9 コンピュータ
11 遠隔部通信装置
13 指示装置
15 対象物
17 マニピュレータ
19 カメラ
20 ロボットコントローラ
22 ローカル通信装置
24 ローカル操作者
26 表示装置
27 追随装置
28 カメラ
32 コンピュータ
34 手持ち型指示装置

Claims (33)

  1. − ローカルサイトに可動に配置された画像取得のためのカメラ(19)と、
    − 図形を生成し、該生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置(38)と、
    − ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置(5)と、
    − ローカルサイトと遠隔サイト間の情報通信のための通信リンク(1)と
    を備え、
    遠隔サイトにおける位置と方向を特定するための特定装置(7)をさらに備えており、カメラの位置と方向が該特定された位置と方向に基づいて決定され、前記登録装置が該特定された位置と方向に基づいて生成された図形を画像に登録するように構成されていることを特徴とする強化現実システム。
  2. 前記特定装置が遠隔サイトに位置する可動装置(5)の位置と方向を決定するように構成された追随装置(7)を備え、前記登録装置(38)が可動装置の位置と方向に基づいて生成された図形を画像に登録するように構成されており、及びカメラ(19)の位置と方向が可動装置の位置と方向に基づいて決定されることを特徴とする、請求項1に記載のシステム。
  3. 可動装置が表示装置(5)である請求項2に記載のシステム。
  4. ローカルサイトに位置するロボット(17,20)をさらに備え、該ロボットがカメラを搭載し、ロボットの動きが前記特定された位置と方向に基づいて決定されることを特徴とする、請求項1ないし3のいずれか1項に記載のシステム。
  5. 図形表示を生成する図形生成器(37)をさらに備え、前記登録装置(38)が該図形表示に基づいて図形を生成するように構成されていることを特徴とする、請求項1ないし4のいずれか1項に記載のシステム。
  6. 表示する図形に関連するデータをシステムに供給するための、遠隔サイトに位置する操作者入力手段(13)をさらに備えており、システムは該データに基づいて図形を生成するように構成されていることを特徴とする、請求項1ないし5のいずれか1項に記載のシステム。
  7. 前記操作者入力手段が、指示装置(13)と、該指示装置の位置を決定するための追随装置とを備えており、システムは指示装置の位置に基づいて指示部材が現在指し示している地点の図形表示を生成するように構成されていることを特徴とする、請求項6に記載のシステム。
  8. ローカルサイトにおける位置と方向を特定するための第2特定装置(27)と、図形を生成し、該生成された図形を、実際の環境又はローカルサイトの環境の画像に、第2特定装置(27)により特定された位置と方向に基づいて登録する第2登録装置(42)と、ローカルサイトの環境と、該環境に投射される前記生成された図形とを含むビューを表示するように構成されたローカル表示装置(26)とを備えることを特徴とする、請求項1ないし7のいずれか1項に記載のシステム。
  9. ローカルサイトに位置する第2可動装置(26)を備えており、第2特定装置が、該第2可動装置の位置と方向を決定する第2追随装置(27)を備えることを特徴とする、請求項8に記載のシステム。
  10. 前記第2可動装置がローカル表示装置(26)であることを特徴とする、請求項9に記載のシステム。
  11. 第2可動装置(26)に対して固定に配置された、画像取得のための第2カメラ(28)を備えており、第2登録装置(42)が、生成された図形を第2カメラ(28)からの画像に登録することにより合成強化現実画像を提供するように構成され、ローカル表示装置が合成強化現実画像を含むビューを表示するように構成されていることを特徴とする、請求項9又は10に記載のシステム。
  12. 遠隔表示装置(5)は、前記第1特定装置(7)から受信した位置と方向に基づく第1視角から見たビューを表示するように、ローカル表示装置(26)は、前記第2特定装置(27)から受信した位置と方向に基づく第2視角から見た、遠隔表示装置(5)と同じビューを表示するように、それぞれ構成されていることを特徴とする、請求項8ないし11のいずれか1項に記載のシステム。
  13. 通信リンクを介し、遠隔サイトとローカルサイト間で音声を転送する手段を備えることを特徴とする、請求項1ないし12のいずれか1項に記載のシステム。
  14. 通信リンクがネットワークであることを特徴とする、請求項1ないし13のいずれか1項に記載のシステム。
  15. − ローカルサイトから物理的に離れている遠隔サイトにおいて位置と方向を特定する過程と、
    − 該特定された位置と方向に従って、ローカルサイトに位置するカメラ(19)の位置決定及び方向付けを行う過程と、
    − 該カメラから画像を取得する過程と、
    − 図形を生成する過程と、
    − 前記画像、前記図形、及び前記特定された位置と方向に基づいて合成強化現実画像を生成する過程と、
    − 合成強化現実画像を含むビューを表示する過程と
    を含む、ローカルサイトで取得した画像に図形情報を重ねたものを含む強化現実ビューを遠隔地で表示する方法。
  16. 前記位置と方向を特定する過程が、遠隔サイトに位置する可動装置(5)の位置と方向を決定することを含み、カメラの位置と方向を可動装置(5)の位置と方向に基づいて決定する、請求項15に記載の方法。
  17. 可動装置が遠隔表示装置(5)であり、前記合成強化現実画像を含むビューを該遠隔表示装置に表示する、請求項16に記載の方法。
  18. ロボット(17)の動きを制御することと、可動装置(5)の位置と方向に従って該ロボットにカメラ(19)を搭載することとを含む、請求項15ないし17のいずれか1項に記載の方法。
  19. 表示するべき図形に関するデータを取得する過程と、該データに基づいて図形を生成する過程とを含む、請求項15ないし18のいずれか1項に記載の方法。
  20. 指示装置(13)の位置に関する情報を受信する過程と、該指示装置(13)の位置に基づいて指示部材が現在指し示している地点を表す図形を生成する過程とを含む、請求項15ないし19のいずれか1項に記載の方法。
  21. ローカルサイトにおける位置と方向を特定する過程と、ローカルサイトの環境と併せて、ローカルサイトにおいて特定された位置と方向に基づいて該環境に投影された状態で、生成された図形を表示する過程とを含む、請求項15ないし20のいずれか1項に記載の方法。
  22. ローカルサイトにおける位置と方向を特定する過程が、ローカルサイトに位置する前記第2可動装置(26)の位置と方向を決定する過程を含む、請求項21に記載の方法。
  23. 第2可動装置がローカル表示装置(26)であり、ローカルサイトの環境と図形とを含む前記第2ビューを該ローカル表示装置に表示する、請求項22に記載の方法。
  24. 第2可動装置(26)に対して固定に配置した第2カメラ(28)から画像を取得する過程と、該第2カメラ(28)からの画像に生成された図形を登録することにより合成強化現実画像を提供する過程と、該合成強化現実画像を含むビューをローカル表示装置(26)に表示する過程とを含む、請求項22又は23に記載の方法。
  25. 第2図形を生成する過程と、ローカルサイトの環境と、特定した位置と方向に基づいて該環境に第2図形を投射したものとを含む第2ビューを表示する過程とを含む、請求項21ないし24のいずれか1項に記載の方法。
  26. ローカル図形表示を生成する過程と、遠隔図形表示を生成する過程と、ローカル及び遠隔図形表示をローカルサイトと遠隔サイト間で転送する過程と、ローカル及び遠隔図形表示に基づいて前記第1図形を生成する過程と、ローカル及び遠隔図形表示に基づいて前記第2図形を生成する過程とを含む、請求項25に記載の方法。
  27. 遠隔サイトに表示するビューには、ローカルサイトの環境に、遠隔サイトにおいて特定した位置と方向に基づく視角から見た図形を重ねたものを含め、ローカルサイトに表示するビューには、ローカルサイトの環境には、ローカルサイトにおいて特定した位置と方向に基づく視角から見た図形を重ねたものを含める、請求項21ないし26に記載の方法。
  28. コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、請求項15ないし27のいずれか1項に記載の過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品。
  29. プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、請求項15ないし27のいずれか1項に記載の過程を行わせるコンピュータで読取可能な媒体。
  30. 請求項1ないし14のいずれか1項に記載のシステムを、工業ロボットの遠隔プログラミングに使用する方法。
  31. 表示部材(64)とカメラ(8)を備える手持ち型表示装置(62)を備えることを特徴とする、請求項11ないし14のいずれか1項に記載のシステム。
  32. 手持ち型表示装置は、ユーザがディスプレイを通して直接見ているかのような印象を持つように構成されることを特徴とする、請求項31に記載のシステム。
  33. 請求項1ないし13のいずれか1項に記載のシステムを塗装に使用する方法。
JP2004000708A 2002-12-30 2004-01-05 強化現実システム及び方法 Pending JP2004213673A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0203908A SE0203908D0 (sv) 2002-12-30 2002-12-30 An augmented reality system and method

Publications (1)

Publication Number Publication Date
JP2004213673A true JP2004213673A (ja) 2004-07-29

Family

ID=20290053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004000708A Pending JP2004213673A (ja) 2002-12-30 2004-01-05 強化現実システム及び方法

Country Status (4)

Country Link
US (1) US7714895B2 (ja)
EP (1) EP1435737A1 (ja)
JP (1) JP2004213673A (ja)
SE (1) SE0203908D0 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209664A (ja) * 2005-01-31 2006-08-10 Canon Inc システム、画像処理装置、情報処理方法
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2012043435A (ja) * 2010-08-18 2012-03-01 Pantech Co Ltd 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム
JP2013527040A (ja) * 2010-05-26 2013-06-27 ザ・ボーイング・カンパニー 検査センサを配置する方法及びシステム
JP2016035742A (ja) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2016205974A (ja) * 2015-04-21 2016-12-08 株式会社ミツトヨ 測定システムおよびユーザインタフェース装置
JP2017062720A (ja) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018176342A (ja) * 2017-04-11 2018-11-15 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019038075A (ja) * 2017-08-25 2019-03-14 ファナック株式会社 ロボットシステム
JP2020073872A (ja) * 2019-09-04 2020-05-14 株式会社ミツトヨ 制御システム
WO2020203139A1 (ja) 2019-03-29 2020-10-08 ソニー株式会社 制御装置及びマスタスレーブシステム
WO2021261411A1 (ja) * 2020-06-23 2021-12-30 川崎重工業株式会社 ロボット教示方法及びロボット作業方法
WO2022209578A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置

Families Citing this family (245)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US7046214B2 (en) * 2003-12-17 2006-05-16 Information Decision Technologies, Llc Method and system for accomplishing a scalable, multi-user, extended range, distributed, augmented reality environment
NO317898B1 (no) * 2002-05-24 2004-12-27 Abb Research Ltd Fremgangsmate og system for a programmere en industrirobot
SE525108C2 (sv) * 2002-12-30 2004-11-30 Abb Research Ltd Metod och system för programmering av en industrirobot, datorprogramprodukt, datorläsbart medium samt användning
US11033821B2 (en) 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
KR100590549B1 (ko) * 2004-03-12 2006-06-19 삼성전자주식회사 3차원 포인팅 방법을 이용한 로봇의 원격 제어 방법 및이를 구현한 로봇 제어 시스템
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
FR2889761A1 (fr) * 2005-08-09 2007-02-16 Total Immersion Sa Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
DE102006022483A1 (de) * 2006-05-13 2007-11-29 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Anzeigen einer Roboterbahn zur Unterstützung einer Ortsänderung eines Stützpunktes
US20070286020A1 (en) * 2006-06-09 2007-12-13 Input/Output, Inc. Heads-up Navigation for Seismic Data Acquisition
CN104688327B (zh) 2006-06-13 2017-06-09 直观外科手术操作公司 微创手术系统
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10008017B2 (en) * 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP5228307B2 (ja) * 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
ES2300204B1 (es) * 2006-11-16 2009-05-01 The Movie Virtual, S.L. Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada.
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
NO327577B1 (no) * 2007-07-31 2009-08-24 Kongsberg Defence & Aerospace Naerobservasjonssensor med folgestyring og malbestemmelse for vapenstasjon
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
US8769437B2 (en) * 2007-12-12 2014-07-01 Nokia Corporation Method, apparatus and computer program product for displaying virtual media items in a visual media
US8485038B2 (en) * 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
US8838489B2 (en) 2007-12-27 2014-09-16 Amazon Technologies, Inc. On-demand generating E-book content with advertising
GB2456802A (en) * 2008-01-24 2009-07-29 Areograph Ltd Image capture and motion picture generation using both motion camera and scene scanning imaging systems
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
DE102008021160A1 (de) * 2008-04-28 2009-10-29 Beckhoff Automation Gmbh Fernbedienung
US20110112934A1 (en) * 2008-06-10 2011-05-12 Junichi Ishihara Sensory three-dimensional virtual real space system
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US20100013738A1 (en) * 2008-07-15 2010-01-21 Edward Covannon Image capture and display configuration
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
US8817092B2 (en) * 2008-11-25 2014-08-26 Stuart Leslie Wilkinson Method and apparatus for generating and viewing combined images
KR101590331B1 (ko) * 2009-01-20 2016-02-01 삼성전자 주식회사 이동 가능한 디스플레이 장치와 이를 구비한 로봇 및 그 디스플레이 방법
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
US20100259619A1 (en) * 2009-04-10 2010-10-14 Nicholson Timothy J Hmd with elevated camera
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8473101B2 (en) * 2009-08-21 2013-06-25 Harris Corporation Coordinated action robotic system and related methods
WO2011025450A1 (en) * 2009-08-25 2011-03-03 Xmreality Research Ab Methods and systems for visual interaction
US8542267B1 (en) * 2009-10-01 2013-09-24 Hewlett-Packard Development Company, L.P. Calibrating a visual-collaborative system
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
CN102906810B (zh) 2010-02-24 2015-03-18 爱普莱克斯控股公司 支持视觉受损的个体的扩增的现实全景
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US9858475B2 (en) 2010-05-14 2018-01-02 Intuitive Surgical Operations, Inc. Method and system of hand segmentation and overlay using depth data
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
US9781170B2 (en) 2010-06-15 2017-10-03 Live Nation Entertainment, Inc. Establishing communication links using routing protocols
MX350182B (es) 2010-06-15 2017-08-08 Ticketmaster L L C Metodo y sistemas para configuracion y modelado por computadora de lugares de eventos y mapas interactvos.
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US8559030B2 (en) 2010-07-27 2013-10-15 Xerox Corporation Augmented reality system and method for device management and service
US8902254B1 (en) 2010-09-02 2014-12-02 The Boeing Company Portable augmented reality
US10026227B2 (en) 2010-09-02 2018-07-17 The Boeing Company Portable augmented reality
CN102802884B (zh) * 2010-11-12 2015-04-08 松下电器产业株式会社 移动路径搜索装置及移动路径搜索方法
US8922645B1 (en) * 2010-12-22 2014-12-30 Google Inc. Environmental reproduction system for representing an environment using one or more environmental sensors
US9264515B2 (en) 2010-12-22 2016-02-16 Intel Corporation Techniques for mobile augmented reality applications
WO2012094349A2 (en) 2011-01-05 2012-07-12 Orbotix, Inc. Self-propelled device with actively engaged drive system
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9113050B2 (en) * 2011-01-13 2015-08-18 The Boeing Company Augmented collaboration system
US8918214B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with directional translation
US8918215B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
KR101329935B1 (ko) * 2011-01-27 2013-11-14 주식회사 팬택 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법
KR101292463B1 (ko) * 2011-01-27 2013-07-31 주식회사 팬택 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법
CN102147658B (zh) * 2011-02-12 2013-01-09 华为终端有限公司 实现扩增实境互动的方法、扩增实境互动装置及移动终端
US9205555B2 (en) 2011-03-22 2015-12-08 Harris Corporation Manipulator joint-limit handling algorithm
US9071709B2 (en) * 2011-03-31 2015-06-30 Nokia Technologies Oy Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
CN103562791A (zh) * 2011-04-18 2014-02-05 眼见360股份有限公司 用于与移动计算设备一起进行全景视频成像的装置和方法
US20170028557A1 (en) 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
US8694134B2 (en) 2011-05-05 2014-04-08 Harris Corporation Remote control interface
US10627860B2 (en) * 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8639386B2 (en) 2011-05-20 2014-01-28 Harris Corporation Haptic device for manipulator and vehicle control
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US8913055B2 (en) 2011-05-31 2014-12-16 Honda Motor Co., Ltd. Online environment mapping
AU2011205223C1 (en) * 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US9026250B2 (en) 2011-08-17 2015-05-05 Harris Corporation Haptic manipulation system for wheelchairs
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9606992B2 (en) 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9128520B2 (en) 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
US8996244B2 (en) 2011-10-06 2015-03-31 Harris Corporation Improvised explosive device defeat system
KR101941844B1 (ko) 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
JP5516610B2 (ja) * 2012-01-19 2014-06-11 株式会社安川電機 ロボット、ロボットハンドおよびロボットハンドの保持位置調整方法
US9525964B2 (en) * 2012-02-02 2016-12-20 Nokia Technologies Oy Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
KR101978740B1 (ko) 2012-02-15 2019-05-15 삼성전자주식회사 원격조종시스템 및 그 제어방법
WO2013131036A1 (en) * 2012-03-01 2013-09-06 H4 Engineering, Inc. Apparatus and method for automatic video recording
US8947456B2 (en) 2012-03-22 2015-02-03 Empire Technology Development Llc Augmented reality process for sorting materials
JPWO2013145614A1 (ja) * 2012-03-27 2015-12-10 パナソニックIpマネジメント株式会社 情報処理装置、サーバ装置、情報処理方法、およびプログラム
US9827487B2 (en) * 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
CN104428791A (zh) 2012-05-14 2015-03-18 澳宝提克斯公司 通过检测图像中的圆形物体操作计算装置
US20130321245A1 (en) * 2012-06-04 2013-12-05 Fluor Technologies Corporation Mobile device for monitoring and controlling facility systems
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
ITTV20120139A1 (it) * 2012-07-25 2014-01-26 Isis S R L Metodo per il controllo e l'attivazione di una interfaccia utente contestuale e dispositivo e impianto con tale metodo e interfaccia
US9245428B2 (en) * 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US20150193977A1 (en) * 2012-08-31 2015-07-09 Google Inc. Self-Describing Three-Dimensional (3D) Object Recognition and Control Descriptors for Augmented Reality Interfaces
US9025856B2 (en) 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
US10620902B2 (en) * 2012-09-28 2020-04-14 Nokia Technologies Oy Method and apparatus for providing an indication regarding content presented to another user
US8954195B2 (en) 2012-11-09 2015-02-10 Harris Corporation Hybrid gesture control haptic system
US9196094B2 (en) 2012-11-30 2015-11-24 Empire Technology Develoment Llc Method and apparatus for augmented reality
US20140181678A1 (en) * 2012-12-20 2014-06-26 Sigal Louchheim Interactive augmented reality system, devices and methods using the same
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
CN104919518B (zh) * 2013-01-24 2017-12-08 索尼公司 图像显示设备、图像显示方法与图像显示系统
US8965620B2 (en) 2013-02-07 2015-02-24 Harris Corporation Systems and methods for controlling movement of unmanned vehicles
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US20140253574A1 (en) * 2013-03-05 2014-09-11 Research In Motion Limited Development Environment For Capture Of Image Data From A Mobile Device
US9158518B2 (en) 2013-03-11 2015-10-13 Blackberry Limited Collaborative application development environment using a connected device
WO2014144035A1 (en) * 2013-03-15 2014-09-18 Brian Adams Ballard Method and system for representing and interacting with augmented reality content
US9773264B2 (en) 2013-03-26 2017-09-26 Blackberry Limited Method for providing composite user interface controls and an online storefront for same
JP5796726B2 (ja) * 2013-03-29 2015-10-21 コニカミノルタ株式会社 ジョブ情報表示装置
US20140320529A1 (en) * 2013-04-26 2014-10-30 Palo Alto Research Center Incorporated View steering in a combined virtual augmented reality system
US9258521B2 (en) 2013-05-06 2016-02-09 Globalfoundries Inc. Real-time advisor system with projected augmentable annotations
US9645652B2 (en) * 2013-05-28 2017-05-09 The Boeing Company Ubiquitous natural user system for human-machine interaction
US9395810B2 (en) * 2013-05-28 2016-07-19 The Boeing Company Ubiquitous natural user system
US9904356B2 (en) * 2013-05-28 2018-02-27 The Boeing Company Tracking a user to support tasks performed on complex-system components
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
WO2015057494A1 (en) * 2013-10-15 2015-04-23 Orbotix, Inc. Interactive augmented reality using a self-propelled device
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
WO2015066037A1 (en) * 2013-10-28 2015-05-07 Brown University Virtual reality methods and systems
US9782896B2 (en) * 2013-11-28 2017-10-10 Mitsubishi Electric Corporation Robot system and control method for robot system
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US9128507B2 (en) 2013-12-30 2015-09-08 Harris Corporation Compact haptic interface
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
US9613448B1 (en) * 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
EP3145385A4 (en) * 2014-05-22 2018-02-14 Invuity, Inc. Medical device featuring cladded waveguide
JP6642432B2 (ja) 2014-07-31 2020-02-05 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US10509865B2 (en) 2014-09-18 2019-12-17 Google Llc Dress form for three-dimensional drawing inside virtual reality environment
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
WO2016077506A1 (en) 2014-11-11 2016-05-19 Bent Image Lab, Llc Accurate positioning of augmented reality content
US10773329B2 (en) 2015-01-20 2020-09-15 Illinois Tool Works Inc. Multiple input welding vision system
WO2016130160A1 (en) * 2015-02-13 2016-08-18 Halliburton Energy Services, Inc. Using augmented reality to collect, process and share information
CN107912061B (zh) 2015-03-06 2021-06-01 伊利诺斯工具制品有限公司 用于焊接的传感器辅助头戴式显示器
EP3268949B1 (en) 2015-03-09 2021-05-26 Illinois Tool Works Inc. Methods and apparatus to provide visual information associated with welding operations
US9666160B2 (en) * 2015-03-26 2017-05-30 Illinois Tool Works Inc. Control of mediated reality welding system based on lighting conditions
US9977242B2 (en) 2015-03-26 2018-05-22 Illinois Tool Works Inc. Control of mediated reality welding system based on lighting conditions
US9713871B2 (en) 2015-04-27 2017-07-25 Microsoft Technology Licensing, Llc Enhanced configuration and control of robots
US10007413B2 (en) 2015-04-27 2018-06-26 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
DE102015211515A1 (de) * 2015-06-23 2016-12-29 Siemens Aktiengesellschaft Interaktionssystem
US10363632B2 (en) 2015-06-24 2019-07-30 Illinois Tool Works Inc. Time of flight camera for welding machine vision
EP3112965A1 (en) * 2015-07-02 2017-01-04 Accenture Global Services Limited Robotic process automation
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US9919427B1 (en) 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
US20170028549A1 (en) * 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
DE102015017296B3 (de) 2015-08-14 2021-10-07 Franka Emika Gmbh Robotersystem
US10454943B2 (en) 2015-08-17 2019-10-22 The Toronto-Dominion Bank Augmented and virtual reality based process oversight
DE102015012961B4 (de) 2015-10-08 2022-05-05 Kastanienbaum GmbH Robotersystem
DE102015012959B4 (de) 2015-10-08 2019-01-17 Franka Emika Gmbh Robotersystem und Verfahren zur Steuerung eines Robotersystems
DE102015012962A1 (de) 2015-10-08 2017-04-13 Sami Haddadin Robotersystem
US10146194B2 (en) * 2015-10-14 2018-12-04 Hand Held Products, Inc. Building lighting and temperature control with an augmented reality system
WO2017066801A1 (en) 2015-10-16 2017-04-20 Bent Image Lab, Llc Augmented reality platform
CN105491416B (zh) * 2015-11-25 2020-03-03 腾讯科技(深圳)有限公司 增强现实的信息传输方法和装置
US10099374B2 (en) 2015-12-01 2018-10-16 Bragi GmbH Robotic safety using wearables
JP6420229B2 (ja) 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
US10244211B2 (en) 2016-02-29 2019-03-26 Microsoft Technology Licensing, Llc Immersive interactive telepresence
US10802695B2 (en) 2016-03-23 2020-10-13 Youar Inc. Augmented reality for the internet of things
GB2549264B (en) * 2016-04-06 2020-09-23 Rolls Royce Power Eng Plc Apparatus, methods, computer programs, and non-transitory computer readable storage mediums for enabling remote control of one or more devices
DE102016004787B4 (de) 2016-04-20 2023-02-02 Franka Emika Gmbh Antriebsvorrichtung für einen Roboter und Verfahren zu ihrer Herstellung
DE102016004788A1 (de) 2016-04-20 2017-10-26 Kastanienbaum GmbH Verfahren zur Herstellung eines Roboters und Vorrichtung zur Durchführung dieses Verfahrens
US10168688B2 (en) * 2016-04-29 2019-01-01 Taylor BRUSKY Systems and methods for implementing a pointer-guided tracking system and a pointer-guided mechanical movable device control system
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
ES2749686T3 (es) * 2016-06-24 2020-03-23 Zuend Systemtechnik Ag Sistema de corte de material a cortar
CN106128212B (zh) * 2016-08-27 2019-02-12 大连新锐天地传媒有限公司 基于增强现实技术的书法学习系统及方法
CN106383578B (zh) * 2016-09-13 2020-02-04 网易(杭州)网络有限公司 虚拟现实系统、虚拟现实交互装置及方法
US10943396B1 (en) 2016-09-30 2021-03-09 Amazon Technologies, Inc. Synchronizing transmitted video data and enhancements
US10950049B1 (en) * 2016-09-30 2021-03-16 Amazon Technologies, Inc. Augmenting transmitted video data
US11295525B1 (en) 2016-09-30 2022-04-05 Amazon Technologies, Inc. Augmenting transmitted video data
US10571902B2 (en) * 2016-10-12 2020-02-25 Sisu Devices Llc Robotic programming and motion control
CN106569671A (zh) * 2016-11-09 2017-04-19 唐雪松 基于ar技术的消费品使用说明信息显示方法及装置
US9805306B1 (en) 2016-11-23 2017-10-31 Accenture Global Solutions Limited Cognitive robotics analyzer
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US10979676B1 (en) 2017-02-27 2021-04-13 Amazon Technologies, Inc. Adjusting the presented field of view in transmitted data
US10646994B2 (en) * 2017-04-25 2020-05-12 At&T Intellectual Property I, L.P. Robot virtualization leveraging Geo analytics and augmented reality
EP3615281A4 (en) * 2017-04-28 2021-01-13 Southie Autonomy Works, Inc. AUTOMATED PERSONALIZED FEEDBACK FOR INTERACTIVE LEARNING APPLICATIONS
US11093752B2 (en) * 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10748443B2 (en) 2017-06-08 2020-08-18 Honeywell International Inc. Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems
JP6506348B2 (ja) * 2017-06-14 2019-04-24 ファナック株式会社 ロボットの軌道を修正するロボットの教示装置
US10304251B2 (en) 2017-06-15 2019-05-28 Microsoft Technology Licensing, Llc Virtually representing spaces and objects while maintaining physical properties
NO20171008A1 (en) * 2017-06-20 2018-08-06 Augmenti As Augmented reality system and method of displaying an augmented reality image
US10235192B2 (en) 2017-06-23 2019-03-19 Accenture Global Solutions Limited Self-learning robotic process automation
TWI639960B (zh) * 2017-06-27 2018-11-01 行政院原子能委員會核能硏究所 擴增實境系統及其方法
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US10304239B2 (en) 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US10623453B2 (en) * 2017-07-25 2020-04-14 Unity IPR ApS System and method for device synchronization in augmented reality
US10970930B1 (en) 2017-08-07 2021-04-06 Amazon Technologies, Inc. Alignment and concurrent presentation of guide device video and enhancements
WO2019046559A1 (en) * 2017-08-30 2019-03-07 Linkedwyz UTILIZING INCREASED REALITY TO CONTROL INTELLIGENT DEVICES
US10970545B1 (en) 2017-08-31 2021-04-06 Amazon Technologies, Inc. Generating and surfacing augmented reality signals for associated physical items
US10339931B2 (en) 2017-10-04 2019-07-02 The Toronto-Dominion Bank Persona-based conversational interface personalization using social network preferences
US10460748B2 (en) 2017-10-04 2019-10-29 The Toronto-Dominion Bank Conversational interface determining lexical personality score for response generation with synonym replacement
KR102082433B1 (ko) * 2017-10-19 2020-02-27 한국과학기술연구원 프로젝터-카메라 기반의 로봇형 디바이스와 헤드 마운트 디스플레이를 사용하는 원격 협업 시스템 및 이를 이용한 원격 인터랙션 방법
DE102017219067A1 (de) * 2017-10-25 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur visuellen unterstützung eines benutzers in einem arbeitsumfeld
US11472598B1 (en) 2017-11-16 2022-10-18 Amazon Technologies, Inc. Systems and methods to encode sounds in association with containers
US10878838B1 (en) 2017-11-16 2020-12-29 Amazon Technologies, Inc. Systems and methods to trigger actions based on encoded sounds associated with containers
US10713840B2 (en) * 2017-12-22 2020-07-14 Sony Interactive Entertainment Inc. Space capture, modeling, and texture reconstruction through dynamic camera positioning and lighting using a mobile robot
US10751877B2 (en) 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality
US11010975B1 (en) 2018-03-06 2021-05-18 Velan Studios, Inc. Remote camera augmented reality system
DE102018204508A1 (de) * 2018-03-23 2019-09-26 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines Roboters
US10248981B1 (en) * 2018-04-10 2019-04-02 Prisma Systems Corporation Platform and acquisition system for generating and maintaining digital product visuals
JP6826069B2 (ja) * 2018-04-18 2021-02-03 ファナック株式会社 ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
US20190346842A1 (en) * 2018-05-11 2019-11-14 Honeywell International Inc. Transferring annotations to images captured by remote vehicles between displays
US11429086B1 (en) 2018-05-31 2022-08-30 Amazon Technologies, Inc. Modifying functions of computing devices based on environment
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
JP6773084B2 (ja) * 2018-07-02 2020-10-21 株式会社安川電機 動作教示装置、ロボットシステム及び動作教示方法
CN112739244B (zh) * 2018-07-13 2024-02-09 美国iRobot公司 移动机器人清洁系统
EP3857291A4 (en) 2018-09-25 2021-11-24 Magic Leap, Inc. SYSTEMS AND PROCEDURES FOR EXTENDED REALITY
US11191609B2 (en) 2018-10-08 2021-12-07 The University Of Wyoming Augmented reality based real-time ultrasonography image rendering for surgical assistance
JP7234264B2 (ja) * 2019-02-06 2023-03-07 マクセル株式会社 複合現実表示装置および複合現実表示方法
US11450233B2 (en) 2019-02-19 2022-09-20 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11521512B2 (en) 2019-02-19 2022-12-06 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11363249B2 (en) * 2019-02-22 2022-06-14 Avalon Holographics Inc. Layered scene decomposition CODEC with transparency
EP3956858A1 (en) 2019-04-18 2022-02-23 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
JP7359577B2 (ja) * 2019-06-21 2023-10-11 ファナック株式会社 ロボット教示装置及びロボットシステム
US11159766B2 (en) 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
US11958183B2 (en) * 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
US11721231B2 (en) 2019-11-25 2023-08-08 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
US11322037B2 (en) 2019-11-25 2022-05-03 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
KR20210072463A (ko) 2019-12-09 2021-06-17 한국전자통신연구원 인간-머신 상호작용 방법 및 이를 위한 장치
US11529737B2 (en) 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
CN115427201A (zh) * 2020-04-27 2022-12-02 发那科株式会社 工业机械的显示装置
US11774954B2 (en) 2020-12-02 2023-10-03 Westinghouse Electric Company Llc Systems and methods for wireless remote control of automated equipment
JP7224559B2 (ja) * 2020-12-10 2023-02-17 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
US5155683A (en) * 1991-04-11 1992-10-13 Wadiatur Rahim Vehicle remote guidance with path control
JPH06134687A (ja) 1992-10-23 1994-05-17 Mitsubishi Heavy Ind Ltd 移動ロボットの遠隔操作装置
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US6690338B1 (en) * 1993-08-23 2004-02-10 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US6768563B1 (en) * 1995-02-24 2004-07-27 Canon Kabushiki Kaisha Image input system
JPH08257948A (ja) 1995-03-20 1996-10-08 Yaskawa Electric Corp ロボットの遠隔操作装置
US6535210B1 (en) * 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US5706195A (en) * 1995-09-05 1998-01-06 General Electric Company Augmented reality maintenance system for multiple rovs
US5825982A (en) * 1995-09-15 1998-10-20 Wright; James Head cursor control interface for an automated endoscope system for optimal positioning
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
US20020097322A1 (en) * 2000-11-29 2002-07-25 Monroe David A. Multiple video display configurations and remote control of multiple video signals transmitted to a monitoring station over a network
US7324081B2 (en) * 1999-03-02 2008-01-29 Siemens Aktiengesellschaft Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus
DE50007902D1 (de) * 1999-03-02 2004-10-28 Siemens Ag Augmented-reality-system mit einsatz mobiler geräte
US6781606B2 (en) * 1999-05-20 2004-08-24 Hewlett-Packard Development Company, L.P. System and method for displaying images using foveal video
DE19953739C2 (de) 1999-11-09 2001-10-11 Siemens Ag Einrichtung und Verfahren zur objektorientierten Markierung und Zuordnung von Information zu selektierten technologischen Komponenten
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
EP2363774B1 (en) * 2000-05-01 2017-06-21 iRobot Corporation Method and system for remote control of mobile robot
EP1356413A2 (en) * 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
JP2002247602A (ja) 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
NO317898B1 (no) * 2002-05-24 2004-12-27 Abb Research Ltd Fremgangsmate og system for a programmere en industrirobot
SE525108C2 (sv) * 2002-12-30 2004-11-30 Abb Research Ltd Metod och system för programmering av en industrirobot, datorprogramprodukt, datorläsbart medium samt användning
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209664A (ja) * 2005-01-31 2006-08-10 Canon Inc システム、画像処理装置、情報処理方法
JP4553362B2 (ja) * 2005-01-31 2010-09-29 キヤノン株式会社 システム、画像処理装置、情報処理方法
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP4850984B2 (ja) * 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
US8731276B2 (en) 2009-12-28 2014-05-20 Panasonic Corporation Motion space presentation device and motion space presentation method
JP2013527040A (ja) * 2010-05-26 2013-06-27 ザ・ボーイング・カンパニー 検査センサを配置する方法及びシステム
JP2012043435A (ja) * 2010-08-18 2012-03-01 Pantech Co Ltd 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム
JP2016035742A (ja) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2016205974A (ja) * 2015-04-21 2016-12-08 株式会社ミツトヨ 測定システムおよびユーザインタフェース装置
JP2017062720A (ja) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018176342A (ja) * 2017-04-11 2018-11-15 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019038075A (ja) * 2017-08-25 2019-03-14 ファナック株式会社 ロボットシステム
US10786906B2 (en) 2017-08-25 2020-09-29 Fanuc Corporation Robot system
DE102018213985B4 (de) 2017-08-25 2022-09-29 Fanuc Corporation Robotersystem
US11565427B2 (en) 2017-08-25 2023-01-31 Fanuc Corporation Robot system
WO2020203139A1 (ja) 2019-03-29 2020-10-08 ソニー株式会社 制御装置及びマスタスレーブシステム
US11582438B2 (en) 2019-03-29 2023-02-14 Sony Group Corporation Control device and master slave system
JP2020073872A (ja) * 2019-09-04 2020-05-14 株式会社ミツトヨ 制御システム
WO2021261411A1 (ja) * 2020-06-23 2021-12-30 川崎重工業株式会社 ロボット教示方法及びロボット作業方法
JP7366264B2 (ja) 2020-06-23 2023-10-20 川崎重工業株式会社 ロボット教示方法及びロボット作業方法
WO2022209578A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置

Also Published As

Publication number Publication date
US7714895B2 (en) 2010-05-11
US20040189675A1 (en) 2004-09-30
SE0203908D0 (sv) 2002-12-30
EP1435737A1 (en) 2004-07-07

Similar Documents

Publication Publication Date Title
JP2004213673A (ja) 強化現実システム及び方法
CA3016539C (en) Image processing method, display device, and inspection system
US10452133B2 (en) Interacting with an environment using a parent device and at least one companion device
JP4817603B2 (ja) 工業ロボットをプログラミングするための方法およびシステム
US9415509B2 (en) Robot teach device with 3-D display
Eswaran et al. Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities
Sugimoto et al. Time Follower's Vision: a teleoperation interface with past images
US20050149231A1 (en) Method and a system for programming an industrial robot
Buss et al. Development of a multi-modal multi-user telepresence and teleaction system
US7403835B2 (en) Device and method for programming an industrial robot
Huy et al. See-through and spatial augmented reality-a novel framework for human-robot interaction
Ruffaldi et al. Third point of view augmented reality for robot intentions visualization
JP6598191B2 (ja) 画像表示システムおよび画像表示方法
Jo et al. Chili: viewpoint control and on-video drawing for mobile video calls
JP2015229234A (ja) 作業ロボットの教示データ生成装置及び教示データ生成方法
WO2019120481A1 (en) System and method for determining a transformation representation
Lawson et al. Augmented reality for underground pipe inspection and maintenance
JPH0421105A (ja) マニピユレータの立体教示装置
JPH11338532A (ja) 教示装置
Guan et al. A novel robot teaching system based on augmented reality
JPH03213278A (ja) ロボットの遠隔操作支援方式
JPH1177568A (ja) 教示支援方法及び装置
EP3502836B1 (en) Method for operating an augmented interactive reality system
JP2001315080A (ja) 遠隔地観測装置
CN116569545A (zh) 远程协助的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090818