JP2004213673A - 強化現実システム及び方法 - Google Patents
強化現実システム及び方法 Download PDFInfo
- Publication number
- JP2004213673A JP2004213673A JP2004000708A JP2004000708A JP2004213673A JP 2004213673 A JP2004213673 A JP 2004213673A JP 2004000708 A JP2004000708 A JP 2004000708A JP 2004000708 A JP2004000708 A JP 2004000708A JP 2004213673 A JP2004213673 A JP 2004213673A
- Authority
- JP
- Japan
- Prior art keywords
- local
- remote
- graphic
- display
- site
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/427—Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35482—Eyephone, head-mounted 2-D or 3-D display, also voice and other control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36452—Touch points with handheld probe, camera detects position and orientation probe
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Processing Or Creating Images (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】強化現実システムを改善し、遠隔タスク又は処理を行う際に、遠隔操作者が実際に現場を経験しているかのような表示を可能にする。
【解決手段】ローカルサイトに可動に配置された画像取得のためのカメラ(19)と、図形を生成し、生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置(9)と、ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置(5)と、ローカルサイトと遠隔サイト間の情報通信のための通信リンク(1)と、さらに、遠隔サイトにおける位置と方向を特定するための特定装置(7)とを備える強化現実システムを提供する。登録装置は、特定された位置と方向に基づいて生成された図形表示を画像に登録するのに適しており、カメラは、特定された位置と方向に基づいてその位置と方向が決まるように構成されている。
【選択図】図1
【解決手段】ローカルサイトに可動に配置された画像取得のためのカメラ(19)と、図形を生成し、生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置(9)と、ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置(5)と、ローカルサイトと遠隔サイト間の情報通信のための通信リンク(1)と、さらに、遠隔サイトにおける位置と方向を特定するための特定装置(7)とを備える強化現実システムを提供する。登録装置は、特定された位置と方向に基づいて生成された図形表示を画像に登録するのに適しており、カメラは、特定された位置と方向に基づいてその位置と方向が決まるように構成されている。
【選択図】図1
Description
本発明は、ローカルサイトに可動に配置された画像取得のためのカメラと、図形を生成し、該生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置と、ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置と、ローカルサイトと遠隔サイト間の情報通信のための通信リンクとを備える強化現実システムに関する。
本発明は、さらに、図形情報を現地で取得された画像に重ねたものを含む強化現実ビューを遠隔地で表示する方法に関する。
本発明によるシステム及び方法は、タスク又は処理を行う位置から操作者が物理的に離れた所にいる状況で行われる、遠隔タスク及び処理に適している。例えば、本発明は、遠隔ロボットプログラミング、遠隔メンテナンス及び検査、並びに遠隔共同作業に関して有用である。
本発明は、さらに、工業ロボットのプログラミングを遠隔地で行うための、本発明によるシステムの使用に関する。
強化現実(AR)は、現実世界の表示にコンピュータが生成した情報を重ねる周知の方法である。理想的な強化現実に基づくビジョンでは、ユーザは実写とコンピュータにより生成された図形との差異を認識することができず、よって現実世界環境の認識を向上させることができる。今日では、強化現実技術は多くの用途に使用されている。強化現実は、例えば、メディア(気象予報)や医薬(体内器官の視覚化)業界で、共同作業環境(バーチャル会議室)で、ならびにメンテナンス及びサービスなどの作業を行う産業で使用されている。
伝統的なビジョンに基づく強化現実システムでは、コンピュータによって生成された情報が現実のローカルシーンに付加される。コンピュータによって生成された図形を重ねて遠隔環境を視覚化することを、以降、遠隔強化現実と称する。遠隔強化現実は、危険な環境における調査、ならびにサービス及びサポートタスクなど、タスクを物理的に行う地点から専門家が離れている場合に有益である。
強化現実システムにおけるユーザ間の共同作業が、これまでに文献に取り上げられている。これは、複数の遠隔ユーザの画像を、現実環境に重ね合わせた図形として取り入れることにより行うことができる。このようなシステムでは、強化現実に提供された会議のメンバーの画像を見ることにより、会議参加者が互いを視覚化することができる。さらに、遠隔ユーザは同じ強化現実環境に示されたバーチャル情報により通信することができる。しかしながら、遠隔ユーザは、別の視点から見た、現場のシーンの異なるビューを見ることはできない。
特許文献1により、強化現実画像をコンピュータネットワークにリンクすることが公知である。該文献には、少なくとも1つはARでなければならないが、それ以外はARでもARでなくともよい1又は複数のローカル局と、ARでもARでなくともよい1又は複数の遠隔局とを含む、インターネット上で動作する現実システムが開示されている。ローカル局と遠隔局は互いにネットワークで結ばれている。遠隔局は、データベース、高性能演算、及び遠隔局のユーザがローカルAR局のユーザと相互に関連できる方法など、ローカルAR局では利用できないリソースを提供できる。
開示されている1つの実施形態では、訓練生がローカルAR局に位置し、遠隔局に位置するインストラクターが訓練のモニタと管理を行う。メンテナンスの実施形態では、操作者がローカルAR局でタスクを実行し、情報と援助は遠隔AR局に置かれている。ローカルAR局はローカル局のユーザが使用する頭部搭載ディスプレイと、該頭部搭載ディスプレイに対して固定の位置に配置されたカメラと、図形表示を生成するソフトウェアを備えたコンピュータと、生成された図形表示を画像と混合して合成強化現実画像を作成するビデオミキサとを備えている。
頭部搭載ディスプレイは合成強化現実画像を含むビューの表示に適するようにつくられている。頭部搭載ディスプレイに示されるビューは、ローカルAR局のユーザの頭の位置と方向に基づいている。合成強化現実に関する情報は、ローカル局と遠隔局を結ぶネットワークを介して遠隔局に転送される。遠隔局は、転送された合成強化現実の表示に適した表示装置を備える。遠隔局に位置するユーザは、ローカル局で頭部搭載ディスプレイを装着したユーザとまったく同じビューを見ることができる。
特許文献2には、環境のコンピュータモデルを作成する環境モデラを備える、危険環境での処理のための強化現実メンテナンスシステムが開示されている。環境レンダラはそれぞれが1つの観察位置及び方向に対応する複数の画像を作成する。固定端で固定構造に取付けられた遠隔操作マニピュレータアームの先端には、ビデオカメラなどのユーティリティパッケージが取付けられている。アクチュエータはマニピュレータアームを環境内の所望の位置に移動させる。マニピュレータアームの位置と方向は、位置と方向の感知に適した装置により決定される。この情報はマニピュレータアームレンダラに渡され、マニピュレータアームレンダラは予め保存されたマニピュレータアームのモデルから、異なる複数の視点から見た画像を作成する。環境の計算されたビューを提供するための視点は、座標入力、又は予め作成された視点座標のリストから選択することにより操作者により決定される。それを環境レンダラに供給すると、環境レンダラは、選択された視点から見たときの、環境ジオミトリにより規定された形状に対応する画像を生成する。
マニピュレータアームの先端の位置と方向を組み合せることにより形成される、結果として得られた視点、及びユーティリティパッケージのオフセット移動により、ユーティリティパッケージの視点から見た環境のビューに対応する画像を環境レンダラは作成することができる。同様に、マニピュレータアームの先端の位置と方向はマニピュレータアームレンダラに供給される。マニピュレータアームレンダラは、環境レンダラが使用したものと同じ視点から見たマニピュレータアームの画像を生成する。ビデオミキサはマニピュレータアームの画像と環境の画像を重畳し、重畳された画像をモニタに表示する。これにより、操作者は、環境に対するマニピュレータアームの位置を視覚化することができる。
しかしながら、上述のシステムでは、遠隔操作者が、異なる視点からローカルシーンを見ることができない。
本発明は工業ロボットの遠隔制御に特に適している。塗装、研削及び研磨などのために高質のプログラムを生成するには、処理経験豊富な熟練したプログラマが必要である。これは、品質要件を満たすために処理に関する専門知識が重要である今日のプログラミングシステムの性質による。末端顧客の組織内にこの能力を築き、維持するには、時間、費用の両方が掛かる。遠隔地にいる専門家が複数の顧客のロボットプログラミングをサポート、又は実行すれば、費用を節減することができる。
米国特許出願公開第2002−0010734号
米国特許第5745387号
本発明の課題は、強化現実システムを改善し、遠隔操作者が遠隔タスク又は処理を行う際に、遠隔操作者が実際に現場を経験しているような表示を可能にすることである。
本発明の一態様では、冒頭に記載のシステムにより本発明の課題を解決する。当該システムは、遠隔サイトにおける位置と方向を特定するための特定装置をさらに備え、カメラは該特定された位置と方向に基づいて決定される位置と方向に配置されており、登録装置は該特定された位置と方向に基づいて生成された図形を画像に登録するように構成されていることを特徴とする。本明細書では、ローカルサイトは処理又はタスクが実行される位置を意味し、遠隔サイトは操作者が該処理又はタスクを行う位置を意味する。
本発明によるシステムにより、表示する視点を遠隔操作者が決定することができる。操作者は所望の視点に対応する位置と方向を特定し、該特定された位置と方向に基づいてカメラの位置と方向が調整され、該特定された位置と方向に基づいて図形が画像に登録される。本発明によるシステムにより、遠隔操作者は、ローカルサイトの環境を視覚化してコンピュータにより生成された複数の視点からの図形を重ねることができ、よって遠隔操作者は、ローカルサイトに仮想現実的に存在することができる。本発明の利点は、遠隔操作者がローカルシーンを複数の角度から見ることができ、バーチャル図形を重ね合わせることにより環境に対する認識を向上させることができることである。専門家はサービス及びサポートのためにローカルサイトまで移動しなくともよい。
本発明の1実施形態では、前記特定装置は、予め特定された固定の遠隔座標系に対する、遠隔サイトに位置する可動装置の位置と方向を決定するように構成された追随装置を備える。好適には、可動装置は操作者に装着されているか、操作者が携帯するものであり、よって操作者の位置と方向が表示されるビューを決定する。追随装置は独立した装置であるか、又は可動装置の一部である。追随装置は位置と方向を決定するために使用される任意の種類の従来型センサ又は従来技術でよい。好適には、前記可動装置は表示装置である。表示装置は手持ち型表示装置、又は頭部搭載型表示装置であることが好ましい。従って表示される視点は表示装置の位置と方向によって決まる。操作者が表示装置を携行する場合、操作者の実際の動きによりカメラの位置と方向、従って表示される視点が制御される。
本発明の好適な1実施形態では、当該システムは、ローカルサイトに位置するロボットをさらに備え、ロボットにはカメラが搭載されており、ロボットは、予め特定された固定のローカル座標系に対するその動きが、特定された位置と方向に基づいて決定されるように構成されている。好適には、ロボットの動きは可動装置の動きによって決定される。ユーザが可動装置を装着している場合、ロボットは操作者の動きに合わせて動く。本明細書では、ロボットは工業ロボットを意味する。ロボットは、マニピュレータと、マニピュレータの動きを制御する制御システムを備える。
本発明のさらなる実施形態では、当該システムは、図形表示を生成する図形生成器と、図形表示に基づいて図形を生成するように構成された登録装置を備える。図形表示は帯域幅をそれ程要さずに遠隔サイトとローカルサイト間で転送が容易であるため、まず図形表示を生成し、次いで図形表示に基づいて図形を生成することが有利である。
本発明のさらなる実施形態では、当該システムは、表示する図形に関連するデータをシステムに供給するための、遠隔サイトに位置する操作者入力手段を備える。表示すべき図形に関するデータを供給するための操作者入力手段を設けることにより、操作者は、バーチャル環境にバーチャル情報(注釈又は挿絵)を加えることができる。危険な、又は接近不可能な環境では、処理又は装置に対する特定の性質の検査を行うために、ロボットを導入する必要が生じることがある。これは、核放射線が存在する環境、深海、極端な温度条件下などに当てはまる。このような検査を行う専門家が遠隔地に位置する場合、遠隔強化システムにより、遠隔操作者に対し検査対象物の必要画像を供給することができる。本発明のこの実施形態は、遠隔操作者に対し実際の環境にバーチャル情報を付加する可能性を提供し、操作者のローカルシーンに対する認識を向上させる。例えば、遠隔ロボットプログラミングを行う際、バーチャル情報は、プログラムされたロボットパスと、ロボット処理の結果を示す処理関連情報を含む。遠隔検査のために、バーチャル情報は、実際の環境の温度又は放射線地図や、対象物又は構造の状況情報を含んでもよい。
本発明の好適な実施形態によれば、当該システムは、指示装置と、指示装置の位置を決定するための追随装置とをさらに備え、当該システムは指示装置の位置に基づいて指示部材が現在指し示す地点の図形表示を生成するように構成されている。好適には、指示装置は手持ち式である。このような指示装置は、例えば遠隔サイトにいる操作者がロボットパスを教示するのに使用される。さらなる実施形態では、システムは第2指示装置及び第2追随装置を具備し、該第2指示装置及び第2追随装置はローカルサイトに位置する操作者により使用される。
処理が実行されるローカルサイトにロボットプログラミングの技術を持つ職員がいないとき、又は処理の目的となる対象物のモデルが無い場合、ロボットプログラムの教示において指示装置は特に有益である。指示装置により、ロボットの所在地から遠隔して位置する処理専門家は、実際の目標対象物の画像に特定のタスクを実行することができる。指示装置を使用することにより、遠隔操作者は、仮想現実世界において地点を教示することによりロボットプログラミングタスクを実行することができ、教示された地点は図形表示により示される。遠隔操作者は頭部搭載型ディスプレイを装着することができ、該ディスプレイは、カメラから見た現実世界の図形表示にコンピュータにより生成された図形を重ねて写すことができる。コンピュータにより生成された図形は、例えば、指示装置、処理関連情報及びプログラムされたロボットパスを表す。指示装置はロボットパスのウェイポイントを特定するために使用され、操作者入力手段は処理関連情報をシステムに対して特定するために使用される。
本発明の1実施形態では、当該システムは、ローカルサイトにおける位置と方向を特定するための第2特定装置と、図形を生成し、生成された図形を、実際の環境又はローカルサイトの環境の画像に、第2特定装置により特定された位置と方向に基づいて登録する第2登録装置と、ローカルサイトの環境と該環境に投射された図形を含むビューを表示するように構成されたローカル表示装置とを備える。ローカルサイトの第2表示装置により、現場の操作者が遠隔地の操作者の動作を監督することができる。本発明のこの実施形態により、遠隔操作者とローカル操作者が、同時に、それぞれの視点から、同じコンピュータ生成図形が重ねられた同じ環境を見ることが可能である。同じ強化環境を共有することで、現場の操作者は遠隔操作者をサポートすることができる。遠隔操作者に示される視点は、遠隔操作者本人が決定した位置と方向(例えば操作者の手又は頭の位置)によって決定され、現場の操作者の視点はローカル操作者本人が決定した位置と方向により決定される。
本発明の1実施形態では、当該システムは、ローカルサイトに位置する第2可動装置を備え、第2特定装置は第2可動装置の位置と方向を決定する第2追随装置を備える。好適な実施形態では、第2可動装置はローカル表示装置である。ローカル表示装置は、例えば手持ち型の表示装置又は頭部搭載型ディスプレイである。これにより、実際の環境内での操作者の実際の動きをコンピュータ生成図形で説明することにより、遠隔操作者とローカル操作者間の共同作業が可能になる。システムのユーザ同士は共有するバーチャルな環境を通じて交流することができ、遠隔ユーザとローカルユーザの両方が視点を変えることができる。
本発明の1実施形態では、当該システムは、ローカルサイトに位置し、第2図形表示を生成する第2図形生成器をさらに備え、ローカル表示装置が第2図形表示を含むビューを表示するように構成されている。これにより、ローカル操作者が図形表示を生成し、表示されたビューに該図形を付加することができる。通信リンクは、ローカルサイトと遠隔サイトの間で生成された図形表示を通信するのに適した構成である。よって、ローカル操作者と遠隔操作者の両方が図形を修正でき、その一方で両方の操作者が異なる視点から同じ図形を見ることが可能である。図形又は合成強化現実画像全体ではなく、カメラからのビデオ信号と図形表示のみがローカルサイトと遠隔サイト間で転送されるため、通信帯域幅を削減することができる。
本発明の1実施形態では、当該システムは、第2可動装置に対して固定された位置に配置された、画像取得のための第2カメラと、第2カメラからの画像に生成された図形表示を登録し、合成強化現実画像を提供する第2登録装置を備え、ローカル表示装置は合成強化現実画像を含むビューを表示するように構成されている。本実施形態では、コンピュータ生成図形を現実世界の画像に融合させる。或いは、コンピュータ生成図形を操作者が装着する透過ガラスに表示する。生成された図形はガラスに投射され、よって操作者は現実世界と処理対象物に対する図形を見ることができる。
本発明の1実施形態では、遠隔表示装置は、遠隔サイトにおいて特定された位置と方向に基づく第1視角から見たビューを表示するように、ローカル表示装置は、ローカルサイトにおいて特定された位置と方向に基づく第2視角から見た、遠隔表示装置と同じビューを表示するように、それぞれ構成される。
本発明の1実施形態では、当該システムは、通信リンクを介してローカルサイトと遠隔サイトの間で音声を転送する手段を備える。これにより、遠隔操作者とローカル操作者は会話により通信することができる。好適には、前記通信手段は、遠隔サイト及びローカルサイトにマイク又はヘッドセットを備える。好適には、通信リンクはインターネットなどのネットワークである。
本発明の別の実施態様では、冒頭に記した方法により本発明の課題を解決する。当該方法は、ローカルサイトから物理的に離れている遠隔サイトにおいて位置と方向を特定する過程と、特定された位置と方向に従って、ローカルサイトに位置するカメラの位置決定及び方向付けを行う過程と、カメラから前記画像を取得する過程と、図形を生成する過程と、前記画像、前記図形、及び前記特定された位置と方向に基づいて合成強化現実画像を生成する過程と、合成強化現実画像を含むビューを表示する過程とを含む。
本発明のさらに別の実施態様は、コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、本発明による方法の過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品により本発明の目的を達成する。コンピュータプログラム製品は、コンピュータで読取可能な媒体、又はインターネットなどのネットワークを通じて提供される。
本発明のさらに別の実施態様は、プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、コンピュータに本発明による方法の各過程を行わせるコンピュータで読取可能な媒体により本発明の目的を達成する。
本発明の1実施形態では、当該システムは、表示部材とカメラとを備える手持ち型の表示装置を備える。好適には、手持ち型表示装置は、ユーザがディスプレイを通して直接見ているかのような印象を持つように構成される。手持ち型表示装置は、ユーザが折に触れてコンピュータ生成情報を見なければならないときに有効である。
本発明により、タスク又は処理(例えばロボットプログラムの生成)を遠隔地から実行することが可能になる。遠隔ロボットプログラミングに使用した場合の本発明の利点は、末端消費者がロボットプログラミング能力を有する職員を雇用及び訓練する必要がないこと、及び共同作業環境にプログラミング専門家の集団を有することでロボットプログラミングの効率が向上することである。
本発明の複数の実施例、及び添付図面により、本発明を以下に詳述する。
図1には、本発明の実施例による強化現実システムが図示されている。当該システムは遠隔サイトに位置する部分と、ローカルサイトに位置する部分とを備える。ローカル部と遠隔部は通信リンク1により相互に接続されている。1以上の遠隔操作者3は遠隔サイトに位置している。遠隔部は、図形表示装置5(例えば頭部搭載表示装置)と、固定の遠隔座標系(xR,yR,zR)に対する表示装置5の位置と方向を決定する追随装置7と、図形表示と強化現実画像を生成するのに必要なソフトウェアを備えるコンピュータ9と、コンピュータ9がローカルサイトと通信するための通信装置11とを備えている。好適には、追随装置7の位置と方向は表示装置5に対して固定されている。コンピュータ9は、例えば装着可能なコンピュータである。携帯情報端末(PDA)スクリーン等の異なる種類の手持ち型ディスプレイも使用可能である。
遠隔操作者3はまた、操作者が遠隔サイトの位置と方向を指し示すことを可能にするポンティング装置13を有する。指示装置13は、指示装置13の位置と方向を決定するための追随装置を備える。指示装置追随装置とディスプレイ追随装置から得られる位置と方向は、遠隔座標系(xR,yR,zR)に関連付けられており、該遠隔座標系はローカルサイトのローカル座標系(xL,yL,zL)に対応している。1変形例では、指示装置は、プッシュボタン等、操作者とシステムを相互に交流するのに適した複数のインタラクション手段を備える。該インタラクション手段は、例えば、処理に関する情報をシステムに入力するのに適している。或いは、操作者はキーボード又はその他任意の既知の入力手段により情報をシステムに供給する。
ディスプレイ追随装置7及び指示装置追随装置は、画像認識、加速度計、慣性センサ、ジャイロ、磁気追随装置、超音波、レーザ技術、及び全地球位置決定システム(GPS)等の、位置と方向を決定するための任意の従来技術に基づいている。
処理又は検査の対象物15がローカルサイトに位置している。システムのローカル部は、1又は複数のロボットマニピュレータ17と、ロボットアームの一端に搭載された、対象物15の立体又はモノスコープのビデオストリームを取得するためのカメラ装置19を備えている。ロボットに搭載されたカメラの位置と方向を決定するための追随装置を配置してもよい。或いは、ロボット制御システムからの情報に基づいてカメラの位置と方向を計算するシステムを設置してもよい。ロボットコントローラ20がロボットマニピュレータに接続されており、それによりリアルタイムで固定のローカル座標系(xL,yL,zL)に対して特定された位置と方向に従ってロボットアームを動かすことができる。以降、位置と方向のことをポーズと称する。ローカル部は、遠隔部通信装置11と通信する通信装置22をさらに備える。
システムを所望の目的に使用するために、固定の遠隔座標系(xR,yR,zR)及びローカル座標系(xL,yL,zL)を予め特定する必要がある。遠隔サイトのポーズ(7,13)は遠隔座標系に関連付けられており、ローカルサイトにおいて指定されたポーズはローカル座標系に関連付けられている。よって、遠隔操作者3が遠隔座標系に対してポーズを指定したとき、ローカル座標系の規定によりこの地点のポーズがローカル環境において規定される。
あらゆる種類のカメラを使用できるが、位置と方向に精度を求めると、カメラの種類は限定される。例えば、ウェブカメラ、ビデオカメラ、又はCCDカメラを使用することができる。別の実施形態では、立体画像を提供できるように配置された1以上(例えば2)のカメラを使用することができる。十分な自由度(好ましくは自由度5)を有する任意の既知の工業ロボットを使用できる。工業ロボットは互いに対して可動である複数のアームを有するマニピュレータと、アームの動きを制御する制御システムを備えている。
本発明の1実施例では、ローカル部に操作者がいなくてもシステムを操作することができる。本発明の別の実施例では、ローカル操作者が行うのは遠隔操作者のサポートである。ローカル部に操作者24が存在するとき、ローカル部は図形表示装置26(例えば頭部搭載型ディスプレイ)と、環境と対象物15の画像ストリームを取得するための、表示装置に搭載されたカメラ28と、ローカル座標系において表示装置26とカメラ28の位置と方向を決定する追随装置27と、カメラ28からのビデオストリームと生成された図形表示とに基づいて、図形表示と強化現実画像を生成するために必要なソフトウェアを含むコンピュータ32を備える。
カメラ28は表示装置26に対して固定の位置に搭載されている。好適には、表示装置は、カメラビューの軸に沿ってカメラの画像面内に配置される。別の実施例では、表示装置26は光学透過ディスプレイであり、ローカル操作者24は表示装置によりカメラストリーム無しで直接現実世界環境と対象物を見るため、カメラは不要である。ローカル部は手持ち型指示装置34と、ローカル座標系に対する該指示装置の位置と方向を決定する追随装置と、システムとのインタラクション手段とをさらに備える。好適には、コンピュータ32は装着可能なコンピュータである。
遠隔操作者3は表示装置5を装着しており、該操作者の動きは追随装置7により感知される。表示装置5と装着可能コンピュータ9間の通信は、有線又は無線リンクを介して行われる。コンピュータ9は、カメラ19からのビデオストリームと生成された図形表示に基づいて図形表示と強化現実画像を生成するのに必要なソフトウェアを含む。コンピュータ9はまた、所望のタスク又は処理(例えばロボットプログラムの生成)を行うためのソフトウェアを含む。最後に、コンピュータ9は以前に保存した情報を保存及び復元するための記憶媒体を含む。
指示装置13からコンピュータ9への情報通信は、有線又は無線リンクを介して行われる。追随システムの種類によって、指示装置13のポーズは、指示装置自体から得られるか、又は外部追随装置から得られる。通信装置11は、コンピュータ9からローカル通信装置22への通信を可能にするのに必要なソフトウェアとハードウェアを含む。コンピュータ9から通信装置11への通信は、有線又は無線通信リンクにより提供される。遠隔通信装置11とローカル通信装置22間の通信は、インターネット又はその他適当な通信リンクを介して行うことができる。
カメラ19がロボット17の先端に搭載されており、環境及び対象物15の画像を遠隔操作者3に転送する。ロボットコントローラ20は遠隔部のディスプレイ追随装置7から連続的に更新されるポーズを受信し、それにより該カメラは遠隔操作者3のポーズに従う位置へと移動する。指示装置34と表示装置26の位置はローカル部座標系に関連付けられる。ローカル操作者24は表示装置26を装着し、該表示装置はローカル環境と対象物15の強化現実ビューを操作者に提供する。表示装置26がビデオ透過型である場合、カメラ28を使用してローカル環境の画像を取得することができる。表示装置26が光学透過型である場合、カメラは不要である。
ローカル操作者24は指示装置34を使用してポーズを特定し、共有バーチャル環境とインタラクションさせる。指示装置34の位置はローカル座標系上で追随される。コンピュータ32はローカル強化現実ビューを生成するのに必要なソフトウェアを含む。コンピュータ32は、遠隔操作者が見た、処理又はタスクに関連した図形を生成する。コンピュータ32はまた、遠隔部又は他のローカル部から通信リンク1を介して転送された仮想現実世界の図形表示を含む図形装置を含む。従って、ローカルサイトと遠隔サイト間で、ビデオフォーマットの図形を転送する必要が無く、これにより通信帯域幅要件を低減することができる。コンピュータ32は、バーチャル図形表示、或いは、遠隔又はローカル操作者により与えられた処理又はタスク関連情報等の、処理関連情報を保存するために使用される記憶装置をさらに備える。ローカルサイトはまた、同様にシステムとインタラクションするさらに多くのローカル操作者を含むことができる。
図2は、本発明の1実施例による強化現実システムのブロック図である。遠隔サイトに位置するシステムの遠隔部は、ロボットに搭載されたローカルカメラ19から画像のビデオストリームを受信する。遠隔操作者3は指示及びインタラクション装置13を介してシステムと交流することができる。追随装置は指示装置のポーズを3Dで追随することを可能にし、また遠隔座標系を特定するためにも使用できる。ロボットをプログラミングする際に、ロボットパス上のウェイポイントの指定、及び処理関連情報の特定に指示装置13を使用することが可能であり、一方遠隔検査においては、指示装置を使用して検査するべき対象物又は構造にバーチャル情報を付加することができる。
指示装置13からの出力と、操作者がシステムに供給した情報は、適用装置36に転送される。適用装置36は、ロボットプログラムの生成や遠隔検査の支援といった所望の処理又はタスクを実行するために必要なソフトウェアを含む。図形装置37は、適用装置36に示された視覚情報の3D図形表示を生成する図形生成器を備える。図形装置37は、視覚化される複数の3D図形要素の仕様を有する。適用装置36からの図形の表示を保持することに加え、図形装置37はまた、他の遠隔部又はローカル部から得られたバーチャル図形表示全体を含む。全図形要素の位置は遠隔座標系に対して特定される。ロボットプログラミングの分野では、関連する視覚情報は、操作者が指定したウェイポイント、実際のロボットパス、及びタスクに特定の情報である。加えて、他の操作者が指し示すものの視覚的表示を操作者が得ることができるように、指示装置のポーズが提供される。生成された図形表示は登録装置38に転送される。記憶装置39により、適用作業に関連する情報の保存及びロードが可能である。
ディスプレイ追随装置7は、表示装置5のポーズに関する更新データを連続的に伝達する。ポーズデータは通信装置11に転送され、さらにロボットコントローラ装置20に転送される。ディスプレイ追随装置7からのポーズデータは登録装置38にも転送される。登録装置38は図形を生成し、また図形装置37の図形表示に基づいてカメラ装置19から得た画像に図形を登録し、よって合成強化現実画像を提供する。登録装置38はディスプレイ追随装置7から得たポーズデータを使用してコンピュータ生成図形を現実世界画像に重ねる。登録が正確に行われると、コンピュータ生成図形が現実世界のシーンに視覚的に添付される。組み合わされた画像は表示装置5に表示される。
ローカル通信装置22は、遠隔座標系上の遠隔表示装置5のポーズに関する情報を連続的に受信し、このデータをロボットコントローラ装置20に供給する。ロボットコントローラ装置20は、ローカル座標系上の同じポーズにロボットに搭載されたカメラ19を向ける。カメラ19は、シーンの画像を連続的に取得し、それは通信装置22に、さらに登録装置38に返送される。
図3は、ローカルサイトに所在するローカル部の別の実施例を示す。本実施例は、遠隔操作者とローカル操作者の共同作業について示されたものである。通信装置22は、遠隔操作者が特定した処理に関する特定の情報、遠隔表示装置5の現在のポーズ、及び遠隔指示装置13の現在のポーズと、遠隔図形装置37において生成された図形表示を受信する。受信された図形表示はローカルサーバ装置40に転送される。表示装置26に取り付けられたカメラ装置28は、ローカル現現実世界画像を生成する。カメラ28と表示装置26のポーズは、ローカル座標系に従って決定され、現現実世界シーンに図形モジュール44から生成されたコンピュータ生成図形を重ね合わせる登録装置42に転送される。図形モジュール44は、共有されるバーチャル環境に提供された図形要素の表示であるバーチャル図形情報を遠隔サイトから受信し、表示する。
ローカル操作者は、指示及びインタラクション装置34を使用してシステムと交流する。指示装置のポーズは、共有されるバーチャル環境において可視であるように、図形情報と共に提供される。ローカル操作者に関する図形表示は、通信装置22によって他の操作者に転送される。指示及びインタラクション装置34からの情報は、指示装置の図形表示を生成するローカル図形モジュール44に転送される。この図形表示は、ローカル登録装置42へ、サーバ装置40を介して通信装置22へ、及び遠隔通信装置11を介して遠隔図形装置37へと転送される。遠隔図形モジュールは、受信した図形表示を、遠隔部の情報に基づいて生成された図形表示に付加する。このようにして、遠隔操作者とローカル操作者は異なる視点から見た同一のビューを見ることができる。
サーバ装置40は、通信装置22を介して遠隔サイトからデータを受信する。さらに、サーバ装置40はローカル座標系に関する情報を保持している。サーバ装置40と通信する記憶装置46は、システム情報(例えば、適用作業関連情報、図形表示、及びローカル座標系等のシステム構成パラメータ)を記憶するために使用される。1又は複数のローカル操作者を、サーバ装置40に従属させることができる。
当該システムは、通信リンクを介して、遠隔操作者とローカル操作者の間で双方向に音声を転送することができるように構成されている。ローカル操作者と遠隔操作者の両方にマイクロフォンとヘッドセットを装備することにより、操作者が音声によって互いに通信することができる。
後述では、本発明による強化現実システムの使用法について説明する。ローカル操作者及び遠隔操作者のいずれもセッションを開始することができる。或いは、セッションの開始は予め設定される。まず、ローカル座標系を特定しなければならない。これを行う1つの方法に6点較正法があり、該方法では、操作者が座標系の位置と方向を規定する6点を特定する。ローカル追随装置によって与えられる全てのポーズ情報をこのローカル座標系に関連付ける。このローカル座標系に関連付けられたロボットの位置と方向も認知される必要がある。このように、遠隔地から特定された点もロボット座標系にマッピングすることができる。
遠隔操作者は表示装置を装着することによりシステムの操作を開始する。遠隔操作者は、次いで、ローカル座標系に対応する遠隔座標系を特定しなければならない。遠隔座標系は、ローカル座標系と同様にして特定することができる。遠隔追随装置により提供された全ポーズ情報を遠隔座標系に関連付ける。ローカルサイトでは、目標対象物がローカル座標系における所望の位置に配置される。
遠隔操作者がシステムの使用を開始すると、遠隔表示装置の動きがディスプレイ追随装置によって捕らえられ、通信リンクによりローカルアプリケーションサーバに転送される。次いで、ローカル通信サーバは、ロボットコントローラに対し、遠隔ディスプレイ追随装置により特定されたポーズにカメラを移動しろという指令を送る。ここで、ロボット搭載型カメラの位置は、遠隔座標系において追随装置が位置するのと同じ、ローカル座標系上のポーズへと移動する。
遠隔指示装置のポーズは遠隔座標系上で追随される。遠隔指示装置に関するポーズ情報はローカル通信装置に転送される。ローカル操作者が存在する場合、ローカル操作者のローカル表示装置上にコンピュータ生成図形を提供するために、遠隔操作者の指示装置の位置が使用される。よって、ローカル操作者は、実際のシーンに重ね合わせたバーチャル3D図形により、遠隔操作者の指示装置の動きをリアルタイムで視覚化することができる。
この段階において遠隔ユーザは所望の処理(例えばロボットプログラムの生成)を実行することができる。特定のタスクを実行する間、処理関連情報はコンピュータ生成3D図形と共に遠隔表示装置上に視覚化される。図形にローカルカメラからの現現実世界表示を重ね、遠隔座標系に対して固定する。これにより、目標対象物の画像にコンピュータ生成図形が付加されて、遠隔ユーザは目標対象物の周囲を仮想現実的に動くことができる。ローカルロボット搭載型カメラが遠隔操作者の動きに従って動くように、遠隔操作者の動きが捉えられ、ローカルロボット搭載型カメラに転送される。
遠隔ユーザが何らかのオフラインタスク(例えばロボットパスプログラムの生成)を実行する場合、ローカル操作者はまた、3Dコンピュータ生成図形がローカル表示装置に表示されることにより、遠隔操作者と同様に処理結果を視覚化することができる。処理の図形はローカル操作者から見た現現実世界表示に登録され、重ねられるので、ローカル操作者が新しい位置に移動すると、コンピュータにより生成された処理の図形がローカル座標系に固定されて視覚化される。
ローカル操作者が指示及びインタラクション装置も装着している場合、ローカル指示装置の位置はローカル操作者及び遠隔操作者に対して視覚化される。ローカル指示装置の位置がローカル座標系上で追随される。ローカル指示装置に関するポーズ情報が、ローカル及び遠隔通信装置を介して遠隔サイトに転送される。ローカル操作者の指示装置のポーズ情報は、遠隔表示装置及びローカル表示装置にコンピュータ生成図形を表示するために使用される。このようにして、遠隔操作者はローカル操作者の指示装置の動きを視覚化することができる。さらに多くの遠隔操作者がいる場合も、各遠隔操作者は他の遠隔操作者の指示装置の動きを視覚化することができる。
本発明による方法を実行するために使用されるソフトウェアは、当業者に既知のソフトウェアに部分的に基づいている。例えば、指示部材の位置と方向をARToolKitで生成することができる。ARToolKitはワシントン大学と広島大学によって開発されたもので、正確なコンピュータの視覚に基づく追随技術を使用した強化現実アプリケーションの構築を可能にする公開ソフトウェアライブラリである。適用業務インタフェイスのために、Open GLというソフトウェアを使用することができる。Open GLは、モデル修正、色、光及び陰影機能を含む2D及び3D機能のライブラリを提供している。マイクロソフト Vision SDKは、画像操作とコンピュータ上での分析を実行する書き込みプログラムのライブラリである。強化現実ソフトウェアには、点と線等の描画図形のアルゴリズム、異なる座標系間での位置と方向の転送、位置と方向のシーケンスリストの抽出及び生成、処理関連情報の獲得、並びに、異なる幅と方向の塗装を表す塗り分け点及び線等の、描画における先端図形が含まれる。
本発明は開示された実施例に限定されるものではなく、請求の範囲に規定される範囲内で変更及び修正可能である。例えば、1変形例では、遠隔サイトに、複数のカメラと、複数の表示装置と、複数の特定装置と、複数の図形生成器と、複数の登録装置を設置し、2以上の遠隔操作者が、同時に、ローカルサイトの環境と、それに重ねられた図形を自身のビューから見ることを可能にする。別の変形実施例では、ローカルサイトにも複数のカメラと、複数の表示装置と、複数の特定装置と、複数の図形生成器と、複数の登録装置を設置し、2以上のローカル操作者が、同時に、ローカルサイトの環境と、それに重ねられた図形を、複数の視点から見ることを可能にする。
1変形例では、操作者が位置と方向をシステムに供給する。例えば、操作者は1以上のジョイスティックにより位置と方向を特定する。この実施例では、表示装置は固定のコンピュータスクリーンである。
1実施例では、システムは手持ち型強化現実表示装置を備える。操作者は、コンピュータ生成図形を重ねた現現実世界を表示する手持ち型表示装置を携行する。コンピュータ生成図形は、プログラムされたロボットパス、処理特定情報、目標点及び作業等の処理関連情報を表示する。動きに基づく認識システムにより操作者の手の動きを使用するか、又は指示及びインタラクション装置を使用して、処理関連情報をシステムに対して特定する。
コンピュータ生成情報は、ロボットプログラミングのための操作者による入力を表示する。操作者は手持ち型ARディスプレイを利用して、新規ロボットプログラムを作成しながら自身の作業の結果を観察する。手持ち型ディスプレイは、ディスプレイと同じ視界が内蔵されたカメラを有する。該カメラは現実世界のライブビデオを取得する。システムは、操作者の入力を表示するコンピュータ生成図形に該ライブビデオを組み合わせ、且つ同期させ、それを手持ち型ARディスプレイ上に表示する。操作者は環境内で手持ち型ARディスプレイを自由に動かすことができるので、異なる視点から見た対象物を含むローカル環境にコンピュータ生成図形を重ねて見ることができる。操作者は、手持ち型ARディスプレイを介してその反対側を「覗き込む」ことで、実際の対象物に対して生成されたロボットプログラムを見ることができる。
本発明によるシステムを図4に示す。当該システムは、手持ち型インタラクション/指示装置1を備えており、該インタラクション/指示装置には、該インタラクション/指示装置の位置と方向を絶対座標系60上で決定するための追随システムが取り付けられている。或いは、当該システムは、絶対座標系において手又は指の、位置と方向を認識及び決定するための認識システムを有する、動きに基づく認識システムを備える。システムは、手持ち型表示装置62(例えば超小型PC又はPDA)をさらに備える。表示装置は表示部材64と、該表示装置64に搭載又は内蔵された、環境の画像ストリームを取得するためのカメラ8とを備える。カメラ8は表示装置64に対して固定の位置に設置される。表示装置は、カメラのビュー軸に沿って、カメラの画像面内に配置される。
当該システムは、表示装置の位置と方向を決定するための追随システム66をさらに備える。好ましくは、追随システムは表示装置の上に搭載される。システムはまた、現実世界表示に重ね合わせたコンピュータ生成図形情報の強化現実表示を生成するためのシステムを備える。操作者2の動きはディスプレイ追随システム66によって感知される。
装着可能なコンピュータ68は、カメラ8からのビデオストリームとコンピュータ生成図形とに基づいて強化現実環境を生成するのに必要なソフトウェアを含む。装着可能なコンピュータ68はまた、所望のタスク又は処理(例えばロボットプログラムの生成と到達可能性の確認)を実行するのに必要なソフトウェアを含む。さらに、装着可能コンピュータは、強化現実ビューを提供する図形を生成する。最後に、装着可能コンピュータは、以前に保存した情報を保存及び復元するための記憶媒体を含む。インタラクション/指示装置1から装着可能コンピュータ68への情報の通信は、有線又は無線リンクを介して行われる。操作者は、表示装置62を携行し、それにより環境の強化現実ビューを見る。表示装置は「ビデオ透過」型である。
ビデオ透過は、手持ち型AR表示装置に強化現実世界を生成及び表示するために使用される。表示装置に内蔵されたカメラは現実世界のライブビデオを取得するために使用される。カメラはディスプレイに対し、ユーザが表示装置を「介して」反対側を覗き込んだときに見るのと同じビューを提供するような位置に配置される。コンピュータ生成図形を組み合わせたライブビデオストリームはリアルタイムで表示装置に表示される。追加的な機能には、実際のカメラの焦点距離の出力によるカメラのズーミングが含まれる。これにより、システムは倍率を変更しながらコンピュータ生成図形を正確に表示することができる。追随システムに視覚に基づく追随を用いる場合、視覚に基づく追随にカメラを使用することもできる。
1 通信リンク
3 遠隔操作者
5 図形表示装置
7 追随装置
9 コンピュータ
11 遠隔部通信装置
13 指示装置
15 対象物
17 マニピュレータ
19 カメラ
20 ロボットコントローラ
22 ローカル通信装置
24 ローカル操作者
26 表示装置
27 追随装置
28 カメラ
32 コンピュータ
34 手持ち型指示装置
3 遠隔操作者
5 図形表示装置
7 追随装置
9 コンピュータ
11 遠隔部通信装置
13 指示装置
15 対象物
17 マニピュレータ
19 カメラ
20 ロボットコントローラ
22 ローカル通信装置
24 ローカル操作者
26 表示装置
27 追随装置
28 カメラ
32 コンピュータ
34 手持ち型指示装置
Claims (33)
- − ローカルサイトに可動に配置された画像取得のためのカメラ(19)と、
− 図形を生成し、該生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置(38)と、
− ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置(5)と、
− ローカルサイトと遠隔サイト間の情報通信のための通信リンク(1)と
を備え、
遠隔サイトにおける位置と方向を特定するための特定装置(7)をさらに備えており、カメラの位置と方向が該特定された位置と方向に基づいて決定され、前記登録装置が該特定された位置と方向に基づいて生成された図形を画像に登録するように構成されていることを特徴とする強化現実システム。 - 前記特定装置が遠隔サイトに位置する可動装置(5)の位置と方向を決定するように構成された追随装置(7)を備え、前記登録装置(38)が可動装置の位置と方向に基づいて生成された図形を画像に登録するように構成されており、及びカメラ(19)の位置と方向が可動装置の位置と方向に基づいて決定されることを特徴とする、請求項1に記載のシステム。
- 可動装置が表示装置(5)である請求項2に記載のシステム。
- ローカルサイトに位置するロボット(17,20)をさらに備え、該ロボットがカメラを搭載し、ロボットの動きが前記特定された位置と方向に基づいて決定されることを特徴とする、請求項1ないし3のいずれか1項に記載のシステム。
- 図形表示を生成する図形生成器(37)をさらに備え、前記登録装置(38)が該図形表示に基づいて図形を生成するように構成されていることを特徴とする、請求項1ないし4のいずれか1項に記載のシステム。
- 表示する図形に関連するデータをシステムに供給するための、遠隔サイトに位置する操作者入力手段(13)をさらに備えており、システムは該データに基づいて図形を生成するように構成されていることを特徴とする、請求項1ないし5のいずれか1項に記載のシステム。
- 前記操作者入力手段が、指示装置(13)と、該指示装置の位置を決定するための追随装置とを備えており、システムは指示装置の位置に基づいて指示部材が現在指し示している地点の図形表示を生成するように構成されていることを特徴とする、請求項6に記載のシステム。
- ローカルサイトにおける位置と方向を特定するための第2特定装置(27)と、図形を生成し、該生成された図形を、実際の環境又はローカルサイトの環境の画像に、第2特定装置(27)により特定された位置と方向に基づいて登録する第2登録装置(42)と、ローカルサイトの環境と、該環境に投射される前記生成された図形とを含むビューを表示するように構成されたローカル表示装置(26)とを備えることを特徴とする、請求項1ないし7のいずれか1項に記載のシステム。
- ローカルサイトに位置する第2可動装置(26)を備えており、第2特定装置が、該第2可動装置の位置と方向を決定する第2追随装置(27)を備えることを特徴とする、請求項8に記載のシステム。
- 前記第2可動装置がローカル表示装置(26)であることを特徴とする、請求項9に記載のシステム。
- 第2可動装置(26)に対して固定に配置された、画像取得のための第2カメラ(28)を備えており、第2登録装置(42)が、生成された図形を第2カメラ(28)からの画像に登録することにより合成強化現実画像を提供するように構成され、ローカル表示装置が合成強化現実画像を含むビューを表示するように構成されていることを特徴とする、請求項9又は10に記載のシステム。
- 遠隔表示装置(5)は、前記第1特定装置(7)から受信した位置と方向に基づく第1視角から見たビューを表示するように、ローカル表示装置(26)は、前記第2特定装置(27)から受信した位置と方向に基づく第2視角から見た、遠隔表示装置(5)と同じビューを表示するように、それぞれ構成されていることを特徴とする、請求項8ないし11のいずれか1項に記載のシステム。
- 通信リンクを介し、遠隔サイトとローカルサイト間で音声を転送する手段を備えることを特徴とする、請求項1ないし12のいずれか1項に記載のシステム。
- 通信リンクがネットワークであることを特徴とする、請求項1ないし13のいずれか1項に記載のシステム。
- − ローカルサイトから物理的に離れている遠隔サイトにおいて位置と方向を特定する過程と、
− 該特定された位置と方向に従って、ローカルサイトに位置するカメラ(19)の位置決定及び方向付けを行う過程と、
− 該カメラから画像を取得する過程と、
− 図形を生成する過程と、
− 前記画像、前記図形、及び前記特定された位置と方向に基づいて合成強化現実画像を生成する過程と、
− 合成強化現実画像を含むビューを表示する過程と
を含む、ローカルサイトで取得した画像に図形情報を重ねたものを含む強化現実ビューを遠隔地で表示する方法。 - 前記位置と方向を特定する過程が、遠隔サイトに位置する可動装置(5)の位置と方向を決定することを含み、カメラの位置と方向を可動装置(5)の位置と方向に基づいて決定する、請求項15に記載の方法。
- 可動装置が遠隔表示装置(5)であり、前記合成強化現実画像を含むビューを該遠隔表示装置に表示する、請求項16に記載の方法。
- ロボット(17)の動きを制御することと、可動装置(5)の位置と方向に従って該ロボットにカメラ(19)を搭載することとを含む、請求項15ないし17のいずれか1項に記載の方法。
- 表示するべき図形に関するデータを取得する過程と、該データに基づいて図形を生成する過程とを含む、請求項15ないし18のいずれか1項に記載の方法。
- 指示装置(13)の位置に関する情報を受信する過程と、該指示装置(13)の位置に基づいて指示部材が現在指し示している地点を表す図形を生成する過程とを含む、請求項15ないし19のいずれか1項に記載の方法。
- ローカルサイトにおける位置と方向を特定する過程と、ローカルサイトの環境と併せて、ローカルサイトにおいて特定された位置と方向に基づいて該環境に投影された状態で、生成された図形を表示する過程とを含む、請求項15ないし20のいずれか1項に記載の方法。
- ローカルサイトにおける位置と方向を特定する過程が、ローカルサイトに位置する前記第2可動装置(26)の位置と方向を決定する過程を含む、請求項21に記載の方法。
- 第2可動装置がローカル表示装置(26)であり、ローカルサイトの環境と図形とを含む前記第2ビューを該ローカル表示装置に表示する、請求項22に記載の方法。
- 第2可動装置(26)に対して固定に配置した第2カメラ(28)から画像を取得する過程と、該第2カメラ(28)からの画像に生成された図形を登録することにより合成強化現実画像を提供する過程と、該合成強化現実画像を含むビューをローカル表示装置(26)に表示する過程とを含む、請求項22又は23に記載の方法。
- 第2図形を生成する過程と、ローカルサイトの環境と、特定した位置と方向に基づいて該環境に第2図形を投射したものとを含む第2ビューを表示する過程とを含む、請求項21ないし24のいずれか1項に記載の方法。
- ローカル図形表示を生成する過程と、遠隔図形表示を生成する過程と、ローカル及び遠隔図形表示をローカルサイトと遠隔サイト間で転送する過程と、ローカル及び遠隔図形表示に基づいて前記第1図形を生成する過程と、ローカル及び遠隔図形表示に基づいて前記第2図形を生成する過程とを含む、請求項25に記載の方法。
- 遠隔サイトに表示するビューには、ローカルサイトの環境に、遠隔サイトにおいて特定した位置と方向に基づく視角から見た図形を重ねたものを含め、ローカルサイトに表示するビューには、ローカルサイトの環境には、ローカルサイトにおいて特定した位置と方向に基づく視角から見た図形を重ねたものを含める、請求項21ないし26に記載の方法。
- コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、請求項15ないし27のいずれか1項に記載の過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品。
- プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、請求項15ないし27のいずれか1項に記載の過程を行わせるコンピュータで読取可能な媒体。
- 請求項1ないし14のいずれか1項に記載のシステムを、工業ロボットの遠隔プログラミングに使用する方法。
- 表示部材(64)とカメラ(8)を備える手持ち型表示装置(62)を備えることを特徴とする、請求項11ないし14のいずれか1項に記載のシステム。
- 手持ち型表示装置は、ユーザがディスプレイを通して直接見ているかのような印象を持つように構成されることを特徴とする、請求項31に記載のシステム。
- 請求項1ないし13のいずれか1項に記載のシステムを塗装に使用する方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0203908A SE0203908D0 (sv) | 2002-12-30 | 2002-12-30 | An augmented reality system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004213673A true JP2004213673A (ja) | 2004-07-29 |
Family
ID=20290053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004000708A Pending JP2004213673A (ja) | 2002-12-30 | 2004-01-05 | 強化現実システム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7714895B2 (ja) |
EP (1) | EP1435737A1 (ja) |
JP (1) | JP2004213673A (ja) |
SE (1) | SE0203908D0 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209664A (ja) * | 2005-01-31 | 2006-08-10 | Canon Inc | システム、画像処理装置、情報処理方法 |
WO2011080882A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
JP2012043435A (ja) * | 2010-08-18 | 2012-03-01 | Pantech Co Ltd | 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム |
JP2013527040A (ja) * | 2010-05-26 | 2013-06-27 | ザ・ボーイング・カンパニー | 検査センサを配置する方法及びシステム |
JP2016035742A (ja) * | 2014-07-31 | 2016-03-17 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP2016205974A (ja) * | 2015-04-21 | 2016-12-08 | 株式会社ミツトヨ | 測定システムおよびユーザインタフェース装置 |
JP2017062720A (ja) * | 2015-09-25 | 2017-03-30 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JP2018176342A (ja) * | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2019038075A (ja) * | 2017-08-25 | 2019-03-14 | ファナック株式会社 | ロボットシステム |
JP2020073872A (ja) * | 2019-09-04 | 2020-05-14 | 株式会社ミツトヨ | 制御システム |
WO2020203139A1 (ja) | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 制御装置及びマスタスレーブシステム |
WO2021261411A1 (ja) * | 2020-06-23 | 2021-12-30 | 川崎重工業株式会社 | ロボット教示方法及びロボット作業方法 |
WO2022209578A1 (ja) * | 2021-03-31 | 2022-10-06 | Johnan株式会社 | ロボット制御システム、および制御装置 |
Families Citing this family (245)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US7046214B2 (en) * | 2003-12-17 | 2006-05-16 | Information Decision Technologies, Llc | Method and system for accomplishing a scalable, multi-user, extended range, distributed, augmented reality environment |
NO317898B1 (no) * | 2002-05-24 | 2004-12-27 | Abb Research Ltd | Fremgangsmate og system for a programmere en industrirobot |
SE525108C2 (sv) * | 2002-12-30 | 2004-11-30 | Abb Research Ltd | Metod och system för programmering av en industrirobot, datorprogramprodukt, datorläsbart medium samt användning |
US11033821B2 (en) | 2003-09-02 | 2021-06-15 | Jeffrey D. Mullen | Systems and methods for location based games and employment of the same on location enabled devices |
SE526119C2 (sv) * | 2003-11-24 | 2005-07-05 | Abb Research Ltd | Metod och system för programmering av en industrirobot |
WO2005066744A1 (en) * | 2003-12-31 | 2005-07-21 | Abb Research Ltd | A virtual control panel |
US7236854B2 (en) * | 2004-01-05 | 2007-06-26 | Abb Research Ltd. | Method and a system for programming an industrial robot |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
KR100590549B1 (ko) * | 2004-03-12 | 2006-06-19 | 삼성전자주식회사 | 3차원 포인팅 방법을 이용한 로봇의 원격 제어 방법 및이를 구현한 로봇 제어 시스템 |
US7843470B2 (en) * | 2005-01-31 | 2010-11-30 | Canon Kabushiki Kaisha | System, image processing apparatus, and information processing method |
US20060176242A1 (en) * | 2005-02-08 | 2006-08-10 | Blue Belt Technologies, Inc. | Augmented reality device and method |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
JP4738870B2 (ja) * | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
JP4933164B2 (ja) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラムおよび記憶媒体 |
FR2889761A1 (fr) * | 2005-08-09 | 2007-02-16 | Total Immersion Sa | Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera |
US8730156B2 (en) | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
US9250703B2 (en) | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
DE102006022483A1 (de) * | 2006-05-13 | 2007-11-29 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Anzeigen einer Roboterbahn zur Unterstützung einer Ortsänderung eines Stützpunktes |
US20070286020A1 (en) * | 2006-06-09 | 2007-12-13 | Input/Output, Inc. | Heads-up Navigation for Seismic Data Acquisition |
CN104688327B (zh) | 2006-06-13 | 2017-06-09 | 直观外科手术操作公司 | 微创手术系统 |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US10008017B2 (en) * | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
JP5228307B2 (ja) * | 2006-10-16 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
ES2300204B1 (es) * | 2006-11-16 | 2009-05-01 | The Movie Virtual, S.L. | Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada. |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
NO327577B1 (no) * | 2007-07-31 | 2009-08-24 | Kongsberg Defence & Aerospace | Naerobservasjonssensor med folgestyring og malbestemmelse for vapenstasjon |
US8094090B2 (en) * | 2007-10-19 | 2012-01-10 | Southwest Research Institute | Real-time self-visualization system |
US8769437B2 (en) * | 2007-12-12 | 2014-07-01 | Nokia Corporation | Method, apparatus and computer program product for displaying virtual media items in a visual media |
US8485038B2 (en) * | 2007-12-18 | 2013-07-16 | General Electric Company | System and method for augmented reality inspection and data visualization |
US8838489B2 (en) | 2007-12-27 | 2014-09-16 | Amazon Technologies, Inc. | On-demand generating E-book content with advertising |
GB2456802A (en) * | 2008-01-24 | 2009-07-29 | Areograph Ltd | Image capture and motion picture generation using both motion camera and scene scanning imaging systems |
JP2009237878A (ja) * | 2008-03-27 | 2009-10-15 | Dainippon Printing Co Ltd | 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム |
DE102008020772A1 (de) * | 2008-04-21 | 2009-10-22 | Carl Zeiss 3D Metrology Services Gmbh | Darstellung von Ergebnissen einer Vermessung von Werkstücken |
DE102008021160A1 (de) * | 2008-04-28 | 2009-10-29 | Beckhoff Automation Gmbh | Fernbedienung |
US20110112934A1 (en) * | 2008-06-10 | 2011-05-12 | Junichi Ishihara | Sensory three-dimensional virtual real space system |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US20100013738A1 (en) * | 2008-07-15 | 2010-01-21 | Edward Covannon | Image capture and display configuration |
US9600067B2 (en) * | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
US8817092B2 (en) * | 2008-11-25 | 2014-08-26 | Stuart Leslie Wilkinson | Method and apparatus for generating and viewing combined images |
KR101590331B1 (ko) * | 2009-01-20 | 2016-02-01 | 삼성전자 주식회사 | 이동 가능한 디스플레이 장치와 이를 구비한 로봇 및 그 디스플레이 방법 |
US8970690B2 (en) * | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
US9052710B1 (en) * | 2009-03-20 | 2015-06-09 | Exelis Inc. | Manipulation control based upon mimic of human gestures |
US20100259619A1 (en) * | 2009-04-10 | 2010-10-14 | Nicholson Timothy J | Hmd with elevated camera |
US8839121B2 (en) * | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US8473101B2 (en) * | 2009-08-21 | 2013-06-25 | Harris Corporation | Coordinated action robotic system and related methods |
WO2011025450A1 (en) * | 2009-08-25 | 2011-03-03 | Xmreality Research Ab | Methods and systems for visual interaction |
US8542267B1 (en) * | 2009-10-01 | 2013-09-24 | Hewlett-Packard Development Company, L.P. | Calibrating a visual-collaborative system |
US8400548B2 (en) | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
CN102906810B (zh) | 2010-02-24 | 2015-03-18 | 爱普莱克斯控股公司 | 支持视觉受损的个体的扩增的现实全景 |
KR20110116525A (ko) * | 2010-04-19 | 2011-10-26 | 엘지전자 주식회사 | 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법 |
US9858475B2 (en) | 2010-05-14 | 2018-01-02 | Intuitive Surgical Operations, Inc. | Method and system of hand segmentation and overlay using depth data |
US9122707B2 (en) * | 2010-05-28 | 2015-09-01 | Nokia Technologies Oy | Method and apparatus for providing a localized virtual reality environment |
US10096161B2 (en) | 2010-06-15 | 2018-10-09 | Live Nation Entertainment, Inc. | Generating augmented reality images using sensor and location data |
US9781170B2 (en) | 2010-06-15 | 2017-10-03 | Live Nation Entertainment, Inc. | Establishing communication links using routing protocols |
MX350182B (es) | 2010-06-15 | 2017-08-08 | Ticketmaster L L C | Metodo y sistemas para configuracion y modelado por computadora de lugares de eventos y mapas interactvos. |
US20110316845A1 (en) * | 2010-06-25 | 2011-12-29 | Palo Alto Research Center Incorporated | Spatial association between virtual and augmented reality |
US8559030B2 (en) | 2010-07-27 | 2013-10-15 | Xerox Corporation | Augmented reality system and method for device management and service |
US8902254B1 (en) | 2010-09-02 | 2014-12-02 | The Boeing Company | Portable augmented reality |
US10026227B2 (en) | 2010-09-02 | 2018-07-17 | The Boeing Company | Portable augmented reality |
CN102802884B (zh) * | 2010-11-12 | 2015-04-08 | 松下电器产业株式会社 | 移动路径搜索装置及移动路径搜索方法 |
US8922645B1 (en) * | 2010-12-22 | 2014-12-30 | Google Inc. | Environmental reproduction system for representing an environment using one or more environmental sensors |
US9264515B2 (en) | 2010-12-22 | 2016-02-16 | Intel Corporation | Techniques for mobile augmented reality applications |
WO2012094349A2 (en) | 2011-01-05 | 2012-07-12 | Orbotix, Inc. | Self-propelled device with actively engaged drive system |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US9113050B2 (en) * | 2011-01-13 | 2015-08-18 | The Boeing Company | Augmented collaboration system |
US8918214B2 (en) | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with directional translation |
US8918215B2 (en) | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with control signal scaling based on force sensor feedback |
KR101329935B1 (ko) * | 2011-01-27 | 2013-11-14 | 주식회사 팬택 | 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법 |
KR101292463B1 (ko) * | 2011-01-27 | 2013-07-31 | 주식회사 팬택 | 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법 |
CN102147658B (zh) * | 2011-02-12 | 2013-01-09 | 华为终端有限公司 | 实现扩增实境互动的方法、扩增实境互动装置及移动终端 |
US9205555B2 (en) | 2011-03-22 | 2015-12-08 | Harris Corporation | Manipulator joint-limit handling algorithm |
US9071709B2 (en) * | 2011-03-31 | 2015-06-30 | Nokia Technologies Oy | Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
CN103562791A (zh) * | 2011-04-18 | 2014-02-05 | 眼见360股份有限公司 | 用于与移动计算设备一起进行全景视频成像的装置和方法 |
US20170028557A1 (en) | 2015-07-28 | 2017-02-02 | Comprehensive Engineering Solutions, Inc. | Robotic navigation system and method |
US8694134B2 (en) | 2011-05-05 | 2014-04-08 | Harris Corporation | Remote control interface |
US10627860B2 (en) * | 2011-05-10 | 2020-04-21 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
US8639386B2 (en) | 2011-05-20 | 2014-01-28 | Harris Corporation | Haptic device for manipulator and vehicle control |
US10120438B2 (en) | 2011-05-25 | 2018-11-06 | Sony Interactive Entertainment Inc. | Eye gaze to alter device behavior |
US8913055B2 (en) | 2011-05-31 | 2014-12-16 | Honda Motor Co., Ltd. | Online environment mapping |
AU2011205223C1 (en) * | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
US9026250B2 (en) | 2011-08-17 | 2015-05-05 | Harris Corporation | Haptic manipulation system for wheelchairs |
US9286711B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Representing a location at a previous time period using an augmented reality display |
US9268406B2 (en) | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
US9606992B2 (en) | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
US9128520B2 (en) | 2011-09-30 | 2015-09-08 | Microsoft Technology Licensing, Llc | Service provision using personal audio/visual system |
US8996244B2 (en) | 2011-10-06 | 2015-03-31 | Harris Corporation | Improvised explosive device defeat system |
KR101941844B1 (ko) | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
JP5516610B2 (ja) * | 2012-01-19 | 2014-06-11 | 株式会社安川電機 | ロボット、ロボットハンドおよびロボットハンドの保持位置調整方法 |
US9525964B2 (en) * | 2012-02-02 | 2016-12-20 | Nokia Technologies Oy | Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers |
KR101978740B1 (ko) | 2012-02-15 | 2019-05-15 | 삼성전자주식회사 | 원격조종시스템 및 그 제어방법 |
WO2013131036A1 (en) * | 2012-03-01 | 2013-09-06 | H4 Engineering, Inc. | Apparatus and method for automatic video recording |
US8947456B2 (en) | 2012-03-22 | 2015-02-03 | Empire Technology Development Llc | Augmented reality process for sorting materials |
JPWO2013145614A1 (ja) * | 2012-03-27 | 2015-12-10 | パナソニックIpマネジメント株式会社 | 情報処理装置、サーバ装置、情報処理方法、およびプログラム |
US9827487B2 (en) * | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
CN104428791A (zh) | 2012-05-14 | 2015-03-18 | 澳宝提克斯公司 | 通过检测图像中的圆形物体操作计算装置 |
US20130321245A1 (en) * | 2012-06-04 | 2013-12-05 | Fluor Technologies Corporation | Mobile device for monitoring and controlling facility systems |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
ITTV20120139A1 (it) * | 2012-07-25 | 2014-01-26 | Isis S R L | Metodo per il controllo e l'attivazione di una interfaccia utente contestuale e dispositivo e impianto con tale metodo e interfaccia |
US9245428B2 (en) * | 2012-08-02 | 2016-01-26 | Immersion Corporation | Systems and methods for haptic remote control gaming |
US20150193977A1 (en) * | 2012-08-31 | 2015-07-09 | Google Inc. | Self-Describing Three-Dimensional (3D) Object Recognition and Control Descriptors for Augmented Reality Interfaces |
US9025856B2 (en) | 2012-09-05 | 2015-05-05 | Qualcomm Incorporated | Robot control information |
US10620902B2 (en) * | 2012-09-28 | 2020-04-14 | Nokia Technologies Oy | Method and apparatus for providing an indication regarding content presented to another user |
US8954195B2 (en) | 2012-11-09 | 2015-02-10 | Harris Corporation | Hybrid gesture control haptic system |
US9196094B2 (en) | 2012-11-30 | 2015-11-24 | Empire Technology Develoment Llc | Method and apparatus for augmented reality |
US20140181678A1 (en) * | 2012-12-20 | 2014-06-26 | Sigal Louchheim | Interactive augmented reality system, devices and methods using the same |
US20140198130A1 (en) * | 2013-01-15 | 2014-07-17 | Immersion Corporation | Augmented reality user interface with haptic feedback |
CN104919518B (zh) * | 2013-01-24 | 2017-12-08 | 索尼公司 | 图像显示设备、图像显示方法与图像显示系统 |
US8965620B2 (en) | 2013-02-07 | 2015-02-24 | Harris Corporation | Systems and methods for controlling movement of unmanned vehicles |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US20140253574A1 (en) * | 2013-03-05 | 2014-09-11 | Research In Motion Limited | Development Environment For Capture Of Image Data From A Mobile Device |
US9158518B2 (en) | 2013-03-11 | 2015-10-13 | Blackberry Limited | Collaborative application development environment using a connected device |
WO2014144035A1 (en) * | 2013-03-15 | 2014-09-18 | Brian Adams Ballard | Method and system for representing and interacting with augmented reality content |
US9773264B2 (en) | 2013-03-26 | 2017-09-26 | Blackberry Limited | Method for providing composite user interface controls and an online storefront for same |
JP5796726B2 (ja) * | 2013-03-29 | 2015-10-21 | コニカミノルタ株式会社 | ジョブ情報表示装置 |
US20140320529A1 (en) * | 2013-04-26 | 2014-10-30 | Palo Alto Research Center Incorporated | View steering in a combined virtual augmented reality system |
US9258521B2 (en) | 2013-05-06 | 2016-02-09 | Globalfoundries Inc. | Real-time advisor system with projected augmentable annotations |
US9645652B2 (en) * | 2013-05-28 | 2017-05-09 | The Boeing Company | Ubiquitous natural user system for human-machine interaction |
US9395810B2 (en) * | 2013-05-28 | 2016-07-19 | The Boeing Company | Ubiquitous natural user system |
US9904356B2 (en) * | 2013-05-28 | 2018-02-27 | The Boeing Company | Tracking a user to support tasks performed on complex-system components |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
WO2015057494A1 (en) * | 2013-10-15 | 2015-04-23 | Orbotix, Inc. | Interactive augmented reality using a self-propelled device |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
WO2015066037A1 (en) * | 2013-10-28 | 2015-05-07 | Brown University | Virtual reality methods and systems |
US9782896B2 (en) * | 2013-11-28 | 2017-10-10 | Mitsubishi Electric Corporation | Robot system and control method for robot system |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
US9128507B2 (en) | 2013-12-30 | 2015-09-08 | Harris Corporation | Compact haptic interface |
US9524588B2 (en) * | 2014-01-24 | 2016-12-20 | Avaya Inc. | Enhanced communication between remote participants using augmented and virtual reality |
JP5850958B2 (ja) * | 2014-01-24 | 2016-02-03 | ファナック株式会社 | ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置 |
US9613448B1 (en) * | 2014-03-14 | 2017-04-04 | Google Inc. | Augmented display of information in a device view of a display screen |
US9690370B2 (en) | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
EP3145385A4 (en) * | 2014-05-22 | 2018-02-14 | Invuity, Inc. | Medical device featuring cladded waveguide |
JP6642432B2 (ja) | 2014-07-31 | 2020-02-05 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
US10509865B2 (en) | 2014-09-18 | 2019-12-17 | Google Llc | Dress form for three-dimensional drawing inside virtual reality environment |
US20160133230A1 (en) * | 2014-11-11 | 2016-05-12 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US20170243403A1 (en) * | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
WO2016077506A1 (en) | 2014-11-11 | 2016-05-19 | Bent Image Lab, Llc | Accurate positioning of augmented reality content |
US10773329B2 (en) | 2015-01-20 | 2020-09-15 | Illinois Tool Works Inc. | Multiple input welding vision system |
WO2016130160A1 (en) * | 2015-02-13 | 2016-08-18 | Halliburton Energy Services, Inc. | Using augmented reality to collect, process and share information |
CN107912061B (zh) | 2015-03-06 | 2021-06-01 | 伊利诺斯工具制品有限公司 | 用于焊接的传感器辅助头戴式显示器 |
EP3268949B1 (en) | 2015-03-09 | 2021-05-26 | Illinois Tool Works Inc. | Methods and apparatus to provide visual information associated with welding operations |
US9666160B2 (en) * | 2015-03-26 | 2017-05-30 | Illinois Tool Works Inc. | Control of mediated reality welding system based on lighting conditions |
US9977242B2 (en) | 2015-03-26 | 2018-05-22 | Illinois Tool Works Inc. | Control of mediated reality welding system based on lighting conditions |
US9713871B2 (en) | 2015-04-27 | 2017-07-25 | Microsoft Technology Licensing, Llc | Enhanced configuration and control of robots |
US10007413B2 (en) | 2015-04-27 | 2018-06-26 | Microsoft Technology Licensing, Llc | Mixed environment display of attached control elements |
DE102015211515A1 (de) * | 2015-06-23 | 2016-12-29 | Siemens Aktiengesellschaft | Interaktionssystem |
US10363632B2 (en) | 2015-06-24 | 2019-07-30 | Illinois Tool Works Inc. | Time of flight camera for welding machine vision |
EP3112965A1 (en) * | 2015-07-02 | 2017-01-04 | Accenture Global Services Limited | Robotic process automation |
US9916506B1 (en) | 2015-07-25 | 2018-03-13 | X Development Llc | Invisible fiducial markers on a robot to visualize the robot in augmented reality |
US9919427B1 (en) | 2015-07-25 | 2018-03-20 | X Development Llc | Visualizing robot trajectory points in augmented reality |
US20170028549A1 (en) * | 2015-07-28 | 2017-02-02 | Comprehensive Engineering Solutions, Inc. | Robotic navigation system and method |
DE102015017296B3 (de) | 2015-08-14 | 2021-10-07 | Franka Emika Gmbh | Robotersystem |
US10454943B2 (en) | 2015-08-17 | 2019-10-22 | The Toronto-Dominion Bank | Augmented and virtual reality based process oversight |
DE102015012961B4 (de) | 2015-10-08 | 2022-05-05 | Kastanienbaum GmbH | Robotersystem |
DE102015012959B4 (de) | 2015-10-08 | 2019-01-17 | Franka Emika Gmbh | Robotersystem und Verfahren zur Steuerung eines Robotersystems |
DE102015012962A1 (de) | 2015-10-08 | 2017-04-13 | Sami Haddadin | Robotersystem |
US10146194B2 (en) * | 2015-10-14 | 2018-12-04 | Hand Held Products, Inc. | Building lighting and temperature control with an augmented reality system |
WO2017066801A1 (en) | 2015-10-16 | 2017-04-20 | Bent Image Lab, Llc | Augmented reality platform |
CN105491416B (zh) * | 2015-11-25 | 2020-03-03 | 腾讯科技(深圳)有限公司 | 增强现实的信息传输方法和装置 |
US10099374B2 (en) | 2015-12-01 | 2018-10-16 | Bragi GmbH | Robotic safety using wearables |
JP6420229B2 (ja) | 2015-12-10 | 2018-11-07 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
US10456910B2 (en) * | 2016-01-14 | 2019-10-29 | Purdue Research Foundation | Educational systems comprising programmable controllers and methods of teaching therewith |
US10244211B2 (en) | 2016-02-29 | 2019-03-26 | Microsoft Technology Licensing, Llc | Immersive interactive telepresence |
US10802695B2 (en) | 2016-03-23 | 2020-10-13 | Youar Inc. | Augmented reality for the internet of things |
GB2549264B (en) * | 2016-04-06 | 2020-09-23 | Rolls Royce Power Eng Plc | Apparatus, methods, computer programs, and non-transitory computer readable storage mediums for enabling remote control of one or more devices |
DE102016004787B4 (de) | 2016-04-20 | 2023-02-02 | Franka Emika Gmbh | Antriebsvorrichtung für einen Roboter und Verfahren zu ihrer Herstellung |
DE102016004788A1 (de) | 2016-04-20 | 2017-10-26 | Kastanienbaum GmbH | Verfahren zur Herstellung eines Roboters und Vorrichtung zur Durchführung dieses Verfahrens |
US10168688B2 (en) * | 2016-04-29 | 2019-01-01 | Taylor BRUSKY | Systems and methods for implementing a pointer-guided tracking system and a pointer-guided mechanical movable device control system |
US11577159B2 (en) | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
ES2749686T3 (es) * | 2016-06-24 | 2020-03-23 | Zuend Systemtechnik Ag | Sistema de corte de material a cortar |
CN106128212B (zh) * | 2016-08-27 | 2019-02-12 | 大连新锐天地传媒有限公司 | 基于增强现实技术的书法学习系统及方法 |
CN106383578B (zh) * | 2016-09-13 | 2020-02-04 | 网易(杭州)网络有限公司 | 虚拟现实系统、虚拟现实交互装置及方法 |
US10943396B1 (en) | 2016-09-30 | 2021-03-09 | Amazon Technologies, Inc. | Synchronizing transmitted video data and enhancements |
US10950049B1 (en) * | 2016-09-30 | 2021-03-16 | Amazon Technologies, Inc. | Augmenting transmitted video data |
US11295525B1 (en) | 2016-09-30 | 2022-04-05 | Amazon Technologies, Inc. | Augmenting transmitted video data |
US10571902B2 (en) * | 2016-10-12 | 2020-02-25 | Sisu Devices Llc | Robotic programming and motion control |
CN106569671A (zh) * | 2016-11-09 | 2017-04-19 | 唐雪松 | 基于ar技术的消费品使用说明信息显示方法及装置 |
US9805306B1 (en) | 2016-11-23 | 2017-10-31 | Accenture Global Solutions Limited | Cognitive robotics analyzer |
US10999602B2 (en) | 2016-12-23 | 2021-05-04 | Apple Inc. | Sphere projected motion estimation/compensation and mode decision |
US11259046B2 (en) | 2017-02-15 | 2022-02-22 | Apple Inc. | Processing of equirectangular object data to compensate for distortion by spherical projections |
US10924747B2 (en) | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
US10979676B1 (en) | 2017-02-27 | 2021-04-13 | Amazon Technologies, Inc. | Adjusting the presented field of view in transmitted data |
US10646994B2 (en) * | 2017-04-25 | 2020-05-12 | At&T Intellectual Property I, L.P. | Robot virtualization leveraging Geo analytics and augmented reality |
EP3615281A4 (en) * | 2017-04-28 | 2021-01-13 | Southie Autonomy Works, Inc. | AUTOMATED PERSONALIZED FEEDBACK FOR INTERACTIVE LEARNING APPLICATIONS |
US11093752B2 (en) * | 2017-06-02 | 2021-08-17 | Apple Inc. | Object tracking in multi-view video |
US10748443B2 (en) | 2017-06-08 | 2020-08-18 | Honeywell International Inc. | Apparatus and method for visual-assisted training, collaboration, and monitoring in augmented/virtual reality in industrial automation systems and other systems |
JP6506348B2 (ja) * | 2017-06-14 | 2019-04-24 | ファナック株式会社 | ロボットの軌道を修正するロボットの教示装置 |
US10304251B2 (en) | 2017-06-15 | 2019-05-28 | Microsoft Technology Licensing, Llc | Virtually representing spaces and objects while maintaining physical properties |
NO20171008A1 (en) * | 2017-06-20 | 2018-08-06 | Augmenti As | Augmented reality system and method of displaying an augmented reality image |
US10235192B2 (en) | 2017-06-23 | 2019-03-19 | Accenture Global Solutions Limited | Self-learning robotic process automation |
TWI639960B (zh) * | 2017-06-27 | 2018-11-01 | 行政院原子能委員會核能硏究所 | 擴增實境系統及其方法 |
US10754242B2 (en) | 2017-06-30 | 2020-08-25 | Apple Inc. | Adaptive resolution and projection format in multi-direction video |
US10304239B2 (en) | 2017-07-20 | 2019-05-28 | Qualcomm Incorporated | Extended reality virtual assistant |
US10623453B2 (en) * | 2017-07-25 | 2020-04-14 | Unity IPR ApS | System and method for device synchronization in augmented reality |
US10970930B1 (en) | 2017-08-07 | 2021-04-06 | Amazon Technologies, Inc. | Alignment and concurrent presentation of guide device video and enhancements |
WO2019046559A1 (en) * | 2017-08-30 | 2019-03-07 | Linkedwyz | UTILIZING INCREASED REALITY TO CONTROL INTELLIGENT DEVICES |
US10970545B1 (en) | 2017-08-31 | 2021-04-06 | Amazon Technologies, Inc. | Generating and surfacing augmented reality signals for associated physical items |
US10339931B2 (en) | 2017-10-04 | 2019-07-02 | The Toronto-Dominion Bank | Persona-based conversational interface personalization using social network preferences |
US10460748B2 (en) | 2017-10-04 | 2019-10-29 | The Toronto-Dominion Bank | Conversational interface determining lexical personality score for response generation with synonym replacement |
KR102082433B1 (ko) * | 2017-10-19 | 2020-02-27 | 한국과학기술연구원 | 프로젝터-카메라 기반의 로봇형 디바이스와 헤드 마운트 디스플레이를 사용하는 원격 협업 시스템 및 이를 이용한 원격 인터랙션 방법 |
DE102017219067A1 (de) * | 2017-10-25 | 2019-04-25 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur visuellen unterstützung eines benutzers in einem arbeitsumfeld |
US11472598B1 (en) | 2017-11-16 | 2022-10-18 | Amazon Technologies, Inc. | Systems and methods to encode sounds in association with containers |
US10878838B1 (en) | 2017-11-16 | 2020-12-29 | Amazon Technologies, Inc. | Systems and methods to trigger actions based on encoded sounds associated with containers |
US10713840B2 (en) * | 2017-12-22 | 2020-07-14 | Sony Interactive Entertainment Inc. | Space capture, modeling, and texture reconstruction through dynamic camera positioning and lighting using a mobile robot |
US10751877B2 (en) | 2017-12-31 | 2020-08-25 | Abb Schweiz Ag | Industrial robot training using mixed reality |
US11010975B1 (en) | 2018-03-06 | 2021-05-18 | Velan Studios, Inc. | Remote camera augmented reality system |
DE102018204508A1 (de) * | 2018-03-23 | 2019-09-26 | Kuka Deutschland Gmbh | Verfahren und System zum Betreiben eines Roboters |
US10248981B1 (en) * | 2018-04-10 | 2019-04-02 | Prisma Systems Corporation | Platform and acquisition system for generating and maintaining digital product visuals |
JP6826069B2 (ja) * | 2018-04-18 | 2021-02-03 | ファナック株式会社 | ロボットの動作教示装置、ロボットシステムおよびロボット制御装置 |
US20190346842A1 (en) * | 2018-05-11 | 2019-11-14 | Honeywell International Inc. | Transferring annotations to images captured by remote vehicles between displays |
US11429086B1 (en) | 2018-05-31 | 2022-08-30 | Amazon Technologies, Inc. | Modifying functions of computing devices based on environment |
DE102018113336A1 (de) * | 2018-06-05 | 2019-12-05 | GESTALT Robotics GmbH | Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung |
JP6773084B2 (ja) * | 2018-07-02 | 2020-10-21 | 株式会社安川電機 | 動作教示装置、ロボットシステム及び動作教示方法 |
CN112739244B (zh) * | 2018-07-13 | 2024-02-09 | 美国iRobot公司 | 移动机器人清洁系统 |
EP3857291A4 (en) | 2018-09-25 | 2021-11-24 | Magic Leap, Inc. | SYSTEMS AND PROCEDURES FOR EXTENDED REALITY |
US11191609B2 (en) | 2018-10-08 | 2021-12-07 | The University Of Wyoming | Augmented reality based real-time ultrasonography image rendering for surgical assistance |
JP7234264B2 (ja) * | 2019-02-06 | 2023-03-07 | マクセル株式会社 | 複合現実表示装置および複合現実表示方法 |
US11450233B2 (en) | 2019-02-19 | 2022-09-20 | Illinois Tool Works Inc. | Systems for simulating joining operations using mobile devices |
US11521512B2 (en) | 2019-02-19 | 2022-12-06 | Illinois Tool Works Inc. | Systems for simulating joining operations using mobile devices |
US11363249B2 (en) * | 2019-02-22 | 2022-06-14 | Avalon Holographics Inc. | Layered scene decomposition CODEC with transparency |
EP3956858A1 (en) | 2019-04-18 | 2022-02-23 | Beckman Coulter, Inc. | Securing data of objects in a laboratory environment |
JP7359577B2 (ja) * | 2019-06-21 | 2023-10-11 | ファナック株式会社 | ロボット教示装置及びロボットシステム |
US11159766B2 (en) | 2019-09-16 | 2021-10-26 | Qualcomm Incorporated | Placement of virtual content in environments with a plurality of physical participants |
US11958183B2 (en) * | 2019-09-19 | 2024-04-16 | The Research Foundation For The State University Of New York | Negotiation-based human-robot collaboration via augmented reality |
US11721231B2 (en) | 2019-11-25 | 2023-08-08 | Illinois Tool Works Inc. | Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment |
US11322037B2 (en) | 2019-11-25 | 2022-05-03 | Illinois Tool Works Inc. | Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment |
KR20210072463A (ko) | 2019-12-09 | 2021-06-17 | 한국전자통신연구원 | 인간-머신 상호작용 방법 및 이를 위한 장치 |
US11529737B2 (en) | 2020-01-30 | 2022-12-20 | Raytheon Company | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
CN115427201A (zh) * | 2020-04-27 | 2022-12-02 | 发那科株式会社 | 工业机械的显示装置 |
US11774954B2 (en) | 2020-12-02 | 2023-10-03 | Westinghouse Electric Company Llc | Systems and methods for wireless remote control of automated equipment |
JP7224559B2 (ja) * | 2020-12-10 | 2023-02-17 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
US4992866A (en) * | 1989-06-29 | 1991-02-12 | Morgan Jack B | Camera selection and positioning system and method |
US5155683A (en) * | 1991-04-11 | 1992-10-13 | Wadiatur Rahim | Vehicle remote guidance with path control |
JPH06134687A (ja) | 1992-10-23 | 1994-05-17 | Mitsubishi Heavy Ind Ltd | 移動ロボットの遠隔操作装置 |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US6690338B1 (en) * | 1993-08-23 | 2004-02-10 | Francis J. Maguire, Jr. | Apparatus and method for providing images of real and virtual objects in a head mounted display |
US6768563B1 (en) * | 1995-02-24 | 2004-07-27 | Canon Kabushiki Kaisha | Image input system |
JPH08257948A (ja) | 1995-03-20 | 1996-10-08 | Yaskawa Electric Corp | ロボットの遠隔操作装置 |
US6535210B1 (en) * | 1995-06-07 | 2003-03-18 | Geovector Corp. | Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time |
US5706195A (en) * | 1995-09-05 | 1998-01-06 | General Electric Company | Augmented reality maintenance system for multiple rovs |
US5825982A (en) * | 1995-09-15 | 1998-10-20 | Wright; James | Head cursor control interface for an automated endoscope system for optimal positioning |
US5745387A (en) * | 1995-09-28 | 1998-04-28 | General Electric Company | Augmented reality maintenance system employing manipulator arm with archive and comparison device |
JPH11309269A (ja) | 1998-04-27 | 1999-11-09 | Sony Corp | ゲーム装置、シミュレーション装置及びゲーム画像表示方法 |
US20020097322A1 (en) * | 2000-11-29 | 2002-07-25 | Monroe David A. | Multiple video display configurations and remote control of multiple video signals transmitted to a monitoring station over a network |
US7324081B2 (en) * | 1999-03-02 | 2008-01-29 | Siemens Aktiengesellschaft | Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus |
DE50007902D1 (de) * | 1999-03-02 | 2004-10-28 | Siemens Ag | Augmented-reality-system mit einsatz mobiler geräte |
US6781606B2 (en) * | 1999-05-20 | 2004-08-24 | Hewlett-Packard Development Company, L.P. | System and method for displaying images using foveal video |
DE19953739C2 (de) | 1999-11-09 | 2001-10-11 | Siemens Ag | Einrichtung und Verfahren zur objektorientierten Markierung und Zuordnung von Information zu selektierten technologischen Komponenten |
US20020010734A1 (en) * | 2000-02-03 | 2002-01-24 | Ebersole John Franklin | Internetworked augmented reality system and method |
EP2363774B1 (en) * | 2000-05-01 | 2017-06-21 | iRobot Corporation | Method and system for remote control of mobile robot |
EP1356413A2 (en) * | 2000-10-05 | 2003-10-29 | Siemens Corporate Research, Inc. | Intra-operative image-guided neurosurgery with augmented reality visualization |
JP2002247602A (ja) | 2001-02-15 | 2002-08-30 | Mixed Reality Systems Laboratory Inc | 画像生成装置及びその制御方法並びにそのコンピュータプログラム |
JP4649050B2 (ja) * | 2001-03-13 | 2011-03-09 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び制御プログラム |
US20030179308A1 (en) * | 2002-03-19 | 2003-09-25 | Lucia Zamorano | Augmented tracking using video, computed data and/or sensing technologies |
NO317898B1 (no) * | 2002-05-24 | 2004-12-27 | Abb Research Ltd | Fremgangsmate og system for a programmere en industrirobot |
SE525108C2 (sv) * | 2002-12-30 | 2004-11-30 | Abb Research Ltd | Metod och system för programmering av en industrirobot, datorprogramprodukt, datorläsbart medium samt användning |
US7391424B2 (en) * | 2003-08-15 | 2008-06-24 | Werner Gerhard Lonsing | Method and apparatus for producing composite images which contain virtual objects |
SE526119C2 (sv) * | 2003-11-24 | 2005-07-05 | Abb Research Ltd | Metod och system för programmering av en industrirobot |
US7236854B2 (en) * | 2004-01-05 | 2007-06-26 | Abb Research Ltd. | Method and a system for programming an industrial robot |
-
2002
- 2002-12-30 SE SE0203908A patent/SE0203908D0/xx not_active Application Discontinuation
-
2003
- 2003-12-19 EP EP03079135A patent/EP1435737A1/en not_active Ceased
- 2003-12-23 US US10/743,315 patent/US7714895B2/en active Active
-
2004
- 2004-01-05 JP JP2004000708A patent/JP2004213673A/ja active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209664A (ja) * | 2005-01-31 | 2006-08-10 | Canon Inc | システム、画像処理装置、情報処理方法 |
JP4553362B2 (ja) * | 2005-01-31 | 2010-09-29 | キヤノン株式会社 | システム、画像処理装置、情報処理方法 |
WO2011080882A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
JP4850984B2 (ja) * | 2009-12-28 | 2012-01-11 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
US8731276B2 (en) | 2009-12-28 | 2014-05-20 | Panasonic Corporation | Motion space presentation device and motion space presentation method |
JP2013527040A (ja) * | 2010-05-26 | 2013-06-27 | ザ・ボーイング・カンパニー | 検査センサを配置する方法及びシステム |
JP2012043435A (ja) * | 2010-08-18 | 2012-03-01 | Pantech Co Ltd | 拡張現実サービスの共有方法並びに拡張現実サービスを共有するために用いるユーザ端末、遠隔端末及びシステム |
JP2016035742A (ja) * | 2014-07-31 | 2016-03-17 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP2016205974A (ja) * | 2015-04-21 | 2016-12-08 | 株式会社ミツトヨ | 測定システムおよびユーザインタフェース装置 |
JP2017062720A (ja) * | 2015-09-25 | 2017-03-30 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JP2018176342A (ja) * | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2019038075A (ja) * | 2017-08-25 | 2019-03-14 | ファナック株式会社 | ロボットシステム |
US10786906B2 (en) | 2017-08-25 | 2020-09-29 | Fanuc Corporation | Robot system |
DE102018213985B4 (de) | 2017-08-25 | 2022-09-29 | Fanuc Corporation | Robotersystem |
US11565427B2 (en) | 2017-08-25 | 2023-01-31 | Fanuc Corporation | Robot system |
WO2020203139A1 (ja) | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 制御装置及びマスタスレーブシステム |
US11582438B2 (en) | 2019-03-29 | 2023-02-14 | Sony Group Corporation | Control device and master slave system |
JP2020073872A (ja) * | 2019-09-04 | 2020-05-14 | 株式会社ミツトヨ | 制御システム |
WO2021261411A1 (ja) * | 2020-06-23 | 2021-12-30 | 川崎重工業株式会社 | ロボット教示方法及びロボット作業方法 |
JP7366264B2 (ja) | 2020-06-23 | 2023-10-20 | 川崎重工業株式会社 | ロボット教示方法及びロボット作業方法 |
WO2022209578A1 (ja) * | 2021-03-31 | 2022-10-06 | Johnan株式会社 | ロボット制御システム、および制御装置 |
Also Published As
Publication number | Publication date |
---|---|
US7714895B2 (en) | 2010-05-11 |
US20040189675A1 (en) | 2004-09-30 |
SE0203908D0 (sv) | 2002-12-30 |
EP1435737A1 (en) | 2004-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004213673A (ja) | 強化現実システム及び方法 | |
CA3016539C (en) | Image processing method, display device, and inspection system | |
US10452133B2 (en) | Interacting with an environment using a parent device and at least one companion device | |
JP4817603B2 (ja) | 工業ロボットをプログラミングするための方法およびシステム | |
US9415509B2 (en) | Robot teach device with 3-D display | |
Eswaran et al. | Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities | |
Sugimoto et al. | Time Follower's Vision: a teleoperation interface with past images | |
US20050149231A1 (en) | Method and a system for programming an industrial robot | |
Buss et al. | Development of a multi-modal multi-user telepresence and teleaction system | |
US7403835B2 (en) | Device and method for programming an industrial robot | |
Huy et al. | See-through and spatial augmented reality-a novel framework for human-robot interaction | |
Ruffaldi et al. | Third point of view augmented reality for robot intentions visualization | |
JP6598191B2 (ja) | 画像表示システムおよび画像表示方法 | |
Jo et al. | Chili: viewpoint control and on-video drawing for mobile video calls | |
JP2015229234A (ja) | 作業ロボットの教示データ生成装置及び教示データ生成方法 | |
WO2019120481A1 (en) | System and method for determining a transformation representation | |
Lawson et al. | Augmented reality for underground pipe inspection and maintenance | |
JPH0421105A (ja) | マニピユレータの立体教示装置 | |
JPH11338532A (ja) | 教示装置 | |
Guan et al. | A novel robot teaching system based on augmented reality | |
JPH03213278A (ja) | ロボットの遠隔操作支援方式 | |
JPH1177568A (ja) | 教示支援方法及び装置 | |
EP3502836B1 (en) | Method for operating an augmented interactive reality system | |
JP2001315080A (ja) | 遠隔地観測装置 | |
CN116569545A (zh) | 远程协助的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090618 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090818 |