JP2004213673A - Toughened reality system and method - Google Patents

Toughened reality system and method Download PDF

Info

Publication number
JP2004213673A
JP2004213673A JP2004000708A JP2004000708A JP2004213673A JP 2004213673 A JP2004213673 A JP 2004213673A JP 2004000708 A JP2004000708 A JP 2004000708A JP 2004000708 A JP2004000708 A JP 2004000708A JP 2004213673 A JP2004213673 A JP 2004213673A
Authority
JP
Japan
Prior art keywords
local
remote
graphic
display
site
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004000708A
Other languages
Japanese (ja)
Inventor
John Pretlove
プレトロヴェ ジョン
Thomas Pettersen
ペテルセン トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB RES Ltd
ABB Research Ltd Sweden
Original Assignee
ABB RES Ltd
ABB Research Ltd Sweden
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB RES Ltd, ABB Research Ltd Sweden filed Critical ABB RES Ltd
Publication of JP2004213673A publication Critical patent/JP2004213673A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35482Eyephone, head-mounted 2-D or 3-D display, also voice and other control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36452Touch points with handheld probe, camera detects position and orientation probe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Abstract

<P>PROBLEM TO BE SOLVED: To realize display as if a remote operator actually experiences an actual field by improving a toughened reality system in the case of performing a remote task or processing. <P>SOLUTION: This toughened reality system is provided with: a camera (19) for image acquisition movably arranged at a local site; a registration device (9) for providing a synthetic toughened reality image by generating a graphic and registering the generated graphic in an image from the camera; a display device (5) which is arranged at a remote site physically separated from the local site and displays a view including the synthetic toughened reality image; a communication link (1) for information communication between the local site and the remote site; and furthermore a specification device (7) for specifying a position and a direction at the remote site. The registration device is suitable for registering graphic display which is generated on the basis of the specified position and direction in the image, and the camera is constituted so that its position and direction are determined on the basis of the specified position and direction. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、ローカルサイトに可動に配置された画像取得のためのカメラと、図形を生成し、該生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置と、ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置と、ローカルサイトと遠隔サイト間の情報通信のための通信リンクとを備える強化現実システムに関する。   The present invention provides a camera movably arranged at a local site for acquiring an image, a registration device that generates a figure, and provides a synthetic enhanced reality image by registering the generated figure in an image from the camera. A display device for displaying a view including a synthetic augmented reality image, located at a remote site physically separated from the local site, and a communication link for information communication between the local site and the remote site Reality system.

本発明は、さらに、図形情報を現地で取得された画像に重ねたものを含む強化現実ビューを遠隔地で表示する方法に関する。   The invention further relates to a method for remotely displaying an augmented reality view that includes graphical information superimposed on a locally acquired image.

本発明によるシステム及び方法は、タスク又は処理を行う位置から操作者が物理的に離れた所にいる状況で行われる、遠隔タスク及び処理に適している。例えば、本発明は、遠隔ロボットプログラミング、遠隔メンテナンス及び検査、並びに遠隔共同作業に関して有用である。   The systems and methods according to the present invention are suitable for remote tasks and processes performed in situations where the operator is physically remote from the task or process location. For example, the invention is useful for remote robot programming, remote maintenance and inspection, and remote collaboration.

本発明は、さらに、工業ロボットのプログラミングを遠隔地で行うための、本発明によるシステムの使用に関する。   The invention further relates to the use of the system according to the invention for remotely programming an industrial robot.

強化現実(AR)は、現実世界の表示にコンピュータが生成した情報を重ねる周知の方法である。理想的な強化現実に基づくビジョンでは、ユーザは実写とコンピュータにより生成された図形との差異を認識することができず、よって現実世界環境の認識を向上させることができる。今日では、強化現実技術は多くの用途に使用されている。強化現実は、例えば、メディア(気象予報)や医薬(体内器官の視覚化)業界で、共同作業環境(バーチャル会議室)で、ならびにメンテナンス及びサービスなどの作業を行う産業で使用されている。   Augmented reality (AR) is a well-known method of overlaying computer generated information on a real world display. In the vision based on the ideal augmented reality, the user cannot recognize the difference between the real image and the computer-generated graphic, and thus can improve the recognition of the real world environment. Today, augmented reality technology is used for many applications. Augmented reality is used, for example, in the media (weather forecast) and pharmaceutical (internal organ visualization) industries, in collaborative working environments (virtual meeting rooms), and in industries that perform tasks such as maintenance and service.

伝統的なビジョンに基づく強化現実システムでは、コンピュータによって生成された情報が現実のローカルシーンに付加される。コンピュータによって生成された図形を重ねて遠隔環境を視覚化することを、以降、遠隔強化現実と称する。遠隔強化現実は、危険な環境における調査、ならびにサービス及びサポートタスクなど、タスクを物理的に行う地点から専門家が離れている場合に有益である。   In augmented reality systems based on traditional vision, computer-generated information is added to real local scenes. Visualizing a remote environment by superimposing computer-generated graphics is hereinafter referred to as remote augmented reality. Remote augmented reality is beneficial when professionals are away from the point where they physically perform tasks, such as research in hazardous environments, and service and support tasks.

強化現実システムにおけるユーザ間の共同作業が、これまでに文献に取り上げられている。これは、複数の遠隔ユーザの画像を、現実環境に重ね合わせた図形として取り入れることにより行うことができる。このようなシステムでは、強化現実に提供された会議のメンバーの画像を見ることにより、会議参加者が互いを視覚化することができる。さらに、遠隔ユーザは同じ強化現実環境に示されたバーチャル情報により通信することができる。しかしながら、遠隔ユーザは、別の視点から見た、現場のシーンの異なるビューを見ることはできない。   Collaboration among users in augmented reality systems has been featured in the literature so far. This can be done by incorporating images of a plurality of remote users as graphics superimposed on the real environment. Such a system allows conference participants to visualize each other by viewing images of conference members provided in augmented reality. Further, remote users can communicate with virtual information presented in the same augmented reality environment. However, the remote user cannot see a different view of the scene at the scene from a different perspective.

特許文献1により、強化現実画像をコンピュータネットワークにリンクすることが公知である。該文献には、少なくとも1つはARでなければならないが、それ以外はARでもARでなくともよい1又は複数のローカル局と、ARでもARでなくともよい1又は複数の遠隔局とを含む、インターネット上で動作する現実システムが開示されている。ローカル局と遠隔局は互いにネットワークで結ばれている。遠隔局は、データベース、高性能演算、及び遠隔局のユーザがローカルAR局のユーザと相互に関連できる方法など、ローカルAR局では利用できないリソースを提供できる。   From U.S. Pat. No. 6,037,097 it is known to link augmented reality images to a computer network. The document includes one or more local stations, at least one of which must be AR, but otherwise may be AR or non-AR, and one or more remote stations, which may be AR or non-AR A real system that operates on the Internet is disclosed. Local and remote stations are networked together. The remote station can provide resources that are not available at the local AR station, such as databases, high-performance computing, and how the remote station user can correlate with the local AR station user.

開示されている1つの実施形態では、訓練生がローカルAR局に位置し、遠隔局に位置するインストラクターが訓練のモニタと管理を行う。メンテナンスの実施形態では、操作者がローカルAR局でタスクを実行し、情報と援助は遠隔AR局に置かれている。ローカルAR局はローカル局のユーザが使用する頭部搭載ディスプレイと、該頭部搭載ディスプレイに対して固定の位置に配置されたカメラと、図形表示を生成するソフトウェアを備えたコンピュータと、生成された図形表示を画像と混合して合成強化現実画像を作成するビデオミキサとを備えている。   In one disclosed embodiment, a trainee is located at a local AR station and an instructor located at a remote station monitors and manages training. In a maintenance embodiment, an operator performs tasks at a local AR station, and information and assistance are located at a remote AR station. The local AR station includes a head-mounted display used by a user of the local station, a camera disposed at a fixed position with respect to the head-mounted display, and a computer having software for generating a graphic display. A video mixer that mixes the graphical display with the image to create a composite augmented reality image.

頭部搭載ディスプレイは合成強化現実画像を含むビューの表示に適するようにつくられている。頭部搭載ディスプレイに示されるビューは、ローカルAR局のユーザの頭の位置と方向に基づいている。合成強化現実に関する情報は、ローカル局と遠隔局を結ぶネットワークを介して遠隔局に転送される。遠隔局は、転送された合成強化現実の表示に適した表示装置を備える。遠隔局に位置するユーザは、ローカル局で頭部搭載ディスプレイを装着したユーザとまったく同じビューを見ることができる。   The head-mounted display is designed to be suitable for displaying a view including a synthetic augmented reality image. The view shown on the head mounted display is based on the position and orientation of the head of the user of the local AR station. Information about the combined augmented reality is transferred to the remote station via a network connecting the local station and the remote station. The remote station has a display device suitable for displaying the transferred synthetic augmented reality. A user located at a remote station can see exactly the same view as a user wearing a head mounted display at a local station.

特許文献2には、環境のコンピュータモデルを作成する環境モデラを備える、危険環境での処理のための強化現実メンテナンスシステムが開示されている。環境レンダラはそれぞれが1つの観察位置及び方向に対応する複数の画像を作成する。固定端で固定構造に取付けられた遠隔操作マニピュレータアームの先端には、ビデオカメラなどのユーティリティパッケージが取付けられている。アクチュエータはマニピュレータアームを環境内の所望の位置に移動させる。マニピュレータアームの位置と方向は、位置と方向の感知に適した装置により決定される。この情報はマニピュレータアームレンダラに渡され、マニピュレータアームレンダラは予め保存されたマニピュレータアームのモデルから、異なる複数の視点から見た画像を作成する。環境の計算されたビューを提供するための視点は、座標入力、又は予め作成された視点座標のリストから選択することにより操作者により決定される。それを環境レンダラに供給すると、環境レンダラは、選択された視点から見たときの、環境ジオミトリにより規定された形状に対応する画像を生成する。   Patent Literature 2 discloses an augmented reality maintenance system for processing in a hazardous environment, including an environment modeler that creates a computer model of the environment. The environment renderer creates a plurality of images each corresponding to one observation position and direction. A utility package such as a video camera is attached to the distal end of the remote control manipulator arm fixed to the fixed structure at the fixed end. The actuator moves the manipulator arm to a desired position in the environment. The position and orientation of the manipulator arm is determined by a device suitable for sensing position and orientation. This information is passed to the manipulator arm renderer, which creates images from different viewpoints from a previously stored model of the manipulator arm. The viewpoint for providing a calculated view of the environment is determined by the operator by inputting coordinates or selecting from a list of previously created viewpoint coordinates. When it is supplied to the environment renderer, the environment renderer generates an image corresponding to the shape defined by the environment geometry when viewed from the selected viewpoint.

マニピュレータアームの先端の位置と方向を組み合せることにより形成される、結果として得られた視点、及びユーティリティパッケージのオフセット移動により、ユーティリティパッケージの視点から見た環境のビューに対応する画像を環境レンダラは作成することができる。同様に、マニピュレータアームの先端の位置と方向はマニピュレータアームレンダラに供給される。マニピュレータアームレンダラは、環境レンダラが使用したものと同じ視点から見たマニピュレータアームの画像を生成する。ビデオミキサはマニピュレータアームの画像と環境の画像を重畳し、重畳された画像をモニタに表示する。これにより、操作者は、環境に対するマニピュレータアームの位置を視覚化することができる。   The resulting render, formed by combining the position and orientation of the tip of the manipulator arm, and the offset movement of the utility package allow the environment renderer to render an image corresponding to the view of the environment from the utility package perspective. Can be created. Similarly, the position and direction of the tip of the manipulator arm are supplied to the manipulator arm renderer. The manipulator arm renderer generates an image of the manipulator arm viewed from the same viewpoint as that used by the environment renderer. The video mixer superimposes the image of the manipulator arm and the image of the environment, and displays the superimposed image on a monitor. This allows the operator to visualize the position of the manipulator arm with respect to the environment.

しかしながら、上述のシステムでは、遠隔操作者が、異なる視点からローカルシーンを見ることができない。   However, in the above system, the remote operator cannot see the local scene from different viewpoints.

本発明は工業ロボットの遠隔制御に特に適している。塗装、研削及び研磨などのために高質のプログラムを生成するには、処理経験豊富な熟練したプログラマが必要である。これは、品質要件を満たすために処理に関する専門知識が重要である今日のプログラミングシステムの性質による。末端顧客の組織内にこの能力を築き、維持するには、時間、費用の両方が掛かる。遠隔地にいる専門家が複数の顧客のロボットプログラミングをサポート、又は実行すれば、費用を節減することができる。
米国特許出願公開第2002−0010734号 米国特許第5745387号
The invention is particularly suitable for remote control of industrial robots. Generating high quality programs for painting, grinding and polishing, etc. requires skilled programmers with extensive processing experience. This is due to the nature of today's programming systems where processing expertise is important to meet quality requirements. Building and maintaining this capability within the end customer's organization can be both time-consuming and expensive. Costs can be saved if a remote expert supports or performs robot programming for multiple customers.
U.S. Patent Application Publication No. 2002-0010734 U.S. Pat. No. 5,745,387

本発明の課題は、強化現実システムを改善し、遠隔操作者が遠隔タスク又は処理を行う際に、遠隔操作者が実際に現場を経験しているような表示を可能にすることである。   SUMMARY OF THE INVENTION It is an object of the present invention to improve an augmented reality system so that when a remote operator performs a remote task or process, it can be displayed as if the remote operator were actually experiencing the scene.

本発明の一態様では、冒頭に記載のシステムにより本発明の課題を解決する。当該システムは、遠隔サイトにおける位置と方向を特定するための特定装置をさらに備え、カメラは該特定された位置と方向に基づいて決定される位置と方向に配置されており、登録装置は該特定された位置と方向に基づいて生成された図形を画像に登録するように構成されていることを特徴とする。本明細書では、ローカルサイトは処理又はタスクが実行される位置を意味し、遠隔サイトは操作者が該処理又はタスクを行う位置を意味する。   In one aspect of the present invention, the object of the present invention is solved by the system described at the outset. The system further includes a specifying device for specifying a position and a direction at the remote site, wherein the camera is disposed at a position and a direction determined based on the specified position and the direction, and the registration device includes the specifying device for the specifying device. It is characterized in that it is configured to register a figure generated based on the specified position and direction in an image. As used herein, a local site refers to a location where a process or task is performed, and a remote site refers to a location where an operator performs the process or task.

本発明によるシステムにより、表示する視点を遠隔操作者が決定することができる。操作者は所望の視点に対応する位置と方向を特定し、該特定された位置と方向に基づいてカメラの位置と方向が調整され、該特定された位置と方向に基づいて図形が画像に登録される。本発明によるシステムにより、遠隔操作者は、ローカルサイトの環境を視覚化してコンピュータにより生成された複数の視点からの図形を重ねることができ、よって遠隔操作者は、ローカルサイトに仮想現実的に存在することができる。本発明の利点は、遠隔操作者がローカルシーンを複数の角度から見ることができ、バーチャル図形を重ね合わせることにより環境に対する認識を向上させることができることである。専門家はサービス及びサポートのためにローカルサイトまで移動しなくともよい。   The system according to the invention allows the remote operator to determine the viewpoint to be displayed. The operator specifies the position and direction corresponding to the desired viewpoint, adjusts the position and direction of the camera based on the specified position and direction, and registers the figure in the image based on the specified position and direction. Is done. The system according to the invention allows the remote operator to visualize the environment of the local site and superimpose the computer-generated figures from multiple viewpoints, thus allowing the remote operator to virtually exist at the local site. can do. An advantage of the present invention is that the remote operator can view the local scene from multiple angles and can improve the perception of the environment by superimposing virtual figures. Professionals do not have to travel to local sites for service and support.

本発明の1実施形態では、前記特定装置は、予め特定された固定の遠隔座標系に対する、遠隔サイトに位置する可動装置の位置と方向を決定するように構成された追随装置を備える。好適には、可動装置は操作者に装着されているか、操作者が携帯するものであり、よって操作者の位置と方向が表示されるビューを決定する。追随装置は独立した装置であるか、又は可動装置の一部である。追随装置は位置と方向を決定するために使用される任意の種類の従来型センサ又は従来技術でよい。好適には、前記可動装置は表示装置である。表示装置は手持ち型表示装置、又は頭部搭載型表示装置であることが好ましい。従って表示される視点は表示装置の位置と方向によって決まる。操作者が表示装置を携行する場合、操作者の実際の動きによりカメラの位置と方向、従って表示される視点が制御される。   In one embodiment of the invention, the identification device comprises a tracking device configured to determine the position and orientation of a mobile device located at a remote site with respect to a previously specified fixed remote coordinate system. Preferably, the movable device is worn by the operator or carried by the operator, thus determining the view in which the position and direction of the operator are displayed. The tracking device is a stand-alone device or is part of a mobile device. The tracking device may be any type of conventional sensor or technology used to determine position and orientation. Preferably, the movable device is a display device. The display device is preferably a hand-held display device or a head-mounted display device. Therefore, the displayed viewpoint is determined by the position and the direction of the display device. When the operator carries the display device, the actual movement of the operator controls the position and direction of the camera, and thus the displayed viewpoint.

本発明の好適な1実施形態では、当該システムは、ローカルサイトに位置するロボットをさらに備え、ロボットにはカメラが搭載されており、ロボットは、予め特定された固定のローカル座標系に対するその動きが、特定された位置と方向に基づいて決定されるように構成されている。好適には、ロボットの動きは可動装置の動きによって決定される。ユーザが可動装置を装着している場合、ロボットは操作者の動きに合わせて動く。本明細書では、ロボットは工業ロボットを意味する。ロボットは、マニピュレータと、マニピュレータの動きを制御する制御システムを備える。   In a preferred embodiment of the present invention, the system further comprises a robot located at a local site, wherein the robot is equipped with a camera, and the robot has its motion relative to a pre-specified fixed local coordinate system. , Based on the specified position and direction. Preferably, the movement of the robot is determined by the movement of the mobile device. When the user wears the movable device, the robot moves according to the movement of the operator. As used herein, robot means an industrial robot. The robot includes a manipulator and a control system that controls movement of the manipulator.

本発明のさらなる実施形態では、当該システムは、図形表示を生成する図形生成器と、図形表示に基づいて図形を生成するように構成された登録装置を備える。図形表示は帯域幅をそれ程要さずに遠隔サイトとローカルサイト間で転送が容易であるため、まず図形表示を生成し、次いで図形表示に基づいて図形を生成することが有利である。   In a further embodiment of the present invention, the system comprises a graphic generator for generating a graphic display, and a registration device configured to generate the graphic based on the graphic display. It is advantageous to generate the graphic display first, and then generate the graphic based on the graphic display because the graphic display requires less bandwidth and is easy to transfer between the remote site and the local site.

本発明のさらなる実施形態では、当該システムは、表示する図形に関連するデータをシステムに供給するための、遠隔サイトに位置する操作者入力手段を備える。表示すべき図形に関するデータを供給するための操作者入力手段を設けることにより、操作者は、バーチャル環境にバーチャル情報(注釈又は挿絵)を加えることができる。危険な、又は接近不可能な環境では、処理又は装置に対する特定の性質の検査を行うために、ロボットを導入する必要が生じることがある。これは、核放射線が存在する環境、深海、極端な温度条件下などに当てはまる。このような検査を行う専門家が遠隔地に位置する場合、遠隔強化システムにより、遠隔操作者に対し検査対象物の必要画像を供給することができる。本発明のこの実施形態は、遠隔操作者に対し実際の環境にバーチャル情報を付加する可能性を提供し、操作者のローカルシーンに対する認識を向上させる。例えば、遠隔ロボットプログラミングを行う際、バーチャル情報は、プログラムされたロボットパスと、ロボット処理の結果を示す処理関連情報を含む。遠隔検査のために、バーチャル情報は、実際の環境の温度又は放射線地図や、対象物又は構造の状況情報を含んでもよい。   In a further embodiment of the invention, the system comprises operator input means located at a remote site for providing data relating to the graphics to be displayed to the system. By providing operator input means for supplying data relating to a graphic to be displayed, the operator can add virtual information (annotation or illustration) to the virtual environment. In hazardous or inaccessible environments, it may be necessary to introduce a robot to perform certain properties of the process or equipment. This is true in environments where nuclear radiation is present, deep seas, extreme temperature conditions, and the like. When a specialist performing such an inspection is located at a remote place, the remote enhancement system can supply a required image of the inspection object to the remote operator. This embodiment of the invention provides the remote operator with the possibility to add virtual information to the real environment and improves the operator's perception of the local scene. For example, when performing remote robot programming, the virtual information includes a programmed robot path and processing related information indicating a result of the robot processing. For remote inspection, the virtual information may include a temperature or radiological map of the actual environment or status information of the object or structure.

本発明の好適な実施形態によれば、当該システムは、指示装置と、指示装置の位置を決定するための追随装置とをさらに備え、当該システムは指示装置の位置に基づいて指示部材が現在指し示す地点の図形表示を生成するように構成されている。好適には、指示装置は手持ち式である。このような指示装置は、例えば遠隔サイトにいる操作者がロボットパスを教示するのに使用される。さらなる実施形態では、システムは第2指示装置及び第2追随装置を具備し、該第2指示装置及び第2追随装置はローカルサイトに位置する操作者により使用される。   According to a preferred embodiment of the present invention, the system further comprises a pointing device, and a tracking device for determining the position of the pointing device, wherein the system indicates the pointing member currently pointing based on the position of the pointing device. It is configured to generate a graphical display of a point. Preferably, the indicating device is hand-held. Such a pointing device is used, for example, by an operator at a remote site to teach a robot path. In a further embodiment, the system comprises a second pointing device and a second tracking device, wherein the second pointing device and the second tracking device are used by an operator located at the local site.

処理が実行されるローカルサイトにロボットプログラミングの技術を持つ職員がいないとき、又は処理の目的となる対象物のモデルが無い場合、ロボットプログラムの教示において指示装置は特に有益である。指示装置により、ロボットの所在地から遠隔して位置する処理専門家は、実際の目標対象物の画像に特定のタスクを実行することができる。指示装置を使用することにより、遠隔操作者は、仮想現実世界において地点を教示することによりロボットプログラミングタスクを実行することができ、教示された地点は図形表示により示される。遠隔操作者は頭部搭載型ディスプレイを装着することができ、該ディスプレイは、カメラから見た現実世界の図形表示にコンピュータにより生成された図形を重ねて写すことができる。コンピュータにより生成された図形は、例えば、指示装置、処理関連情報及びプログラムされたロボットパスを表す。指示装置はロボットパスのウェイポイントを特定するために使用され、操作者入力手段は処理関連情報をシステムに対して特定するために使用される。   The instruction device is particularly useful in teaching a robot program when there is no staff with the skills of robot programming at the local site where the processing is performed, or when there is no model of the object to be processed. The pointing device allows a processing professional located remotely from the robot's location to perform certain tasks on the actual target object image. By using the pointing device, a remote operator can perform a robot programming task by teaching points in the virtual real world, where the taught points are indicated by a graphical display. The remote operator can wear a head-mounted display, which can superimpose computer generated graphics on real-world graphics viewed from the camera. The computer-generated graphic represents, for example, a pointing device, processing-related information, and a programmed robot path. The pointing device is used to specify a waypoint of the robot path, and the operator input means is used to specify processing-related information to the system.

本発明の1実施形態では、当該システムは、ローカルサイトにおける位置と方向を特定するための第2特定装置と、図形を生成し、生成された図形を、実際の環境又はローカルサイトの環境の画像に、第2特定装置により特定された位置と方向に基づいて登録する第2登録装置と、ローカルサイトの環境と該環境に投射された図形を含むビューを表示するように構成されたローカル表示装置とを備える。ローカルサイトの第2表示装置により、現場の操作者が遠隔地の操作者の動作を監督することができる。本発明のこの実施形態により、遠隔操作者とローカル操作者が、同時に、それぞれの視点から、同じコンピュータ生成図形が重ねられた同じ環境を見ることが可能である。同じ強化環境を共有することで、現場の操作者は遠隔操作者をサポートすることができる。遠隔操作者に示される視点は、遠隔操作者本人が決定した位置と方向(例えば操作者の手又は頭の位置)によって決定され、現場の操作者の視点はローカル操作者本人が決定した位置と方向により決定される。   In one embodiment of the present invention, the system includes a second specifying device for specifying a position and a direction at the local site, and generating a graphic, and displaying the generated graphic on an image of the actual environment or the environment of the local site. A second registration device for registering based on the position and the direction specified by the second specifying device, and a local display device configured to display a view including an environment of the local site and a graphic projected on the environment. And The second display device at the local site allows the on-site operator to supervise the operation of the remote operator. This embodiment of the present invention allows a remote operator and a local operator to simultaneously view the same environment overlaid with the same computer-generated graphics from their respective viewpoints. By sharing the same enhanced environment, field operators can support remote operators. The viewpoint shown to the remote operator is determined by the position and direction (for example, the position of the operator's hand or head) determined by the remote operator, and the viewpoint of the operator at the site is determined by the position determined by the local operator. Determined by the direction.

本発明の1実施形態では、当該システムは、ローカルサイトに位置する第2可動装置を備え、第2特定装置は第2可動装置の位置と方向を決定する第2追随装置を備える。好適な実施形態では、第2可動装置はローカル表示装置である。ローカル表示装置は、例えば手持ち型の表示装置又は頭部搭載型ディスプレイである。これにより、実際の環境内での操作者の実際の動きをコンピュータ生成図形で説明することにより、遠隔操作者とローカル操作者間の共同作業が可能になる。システムのユーザ同士は共有するバーチャルな環境を通じて交流することができ、遠隔ユーザとローカルユーザの両方が視点を変えることができる。   In one embodiment of the present invention, the system includes a second mobile device located at a local site, and the second identifying device includes a second tracking device that determines a position and a direction of the second mobile device. In a preferred embodiment, the second mobile device is a local display. The local display device is, for example, a hand-held display device or a head-mounted display. This allows collaborative work between a remote operator and a local operator by describing the actual movement of the operator in a real environment with computer generated graphics. Users of the system can interact through a shared virtual environment, and both remote and local users can change perspectives.

本発明の1実施形態では、当該システムは、ローカルサイトに位置し、第2図形表示を生成する第2図形生成器をさらに備え、ローカル表示装置が第2図形表示を含むビューを表示するように構成されている。これにより、ローカル操作者が図形表示を生成し、表示されたビューに該図形を付加することができる。通信リンクは、ローカルサイトと遠隔サイトの間で生成された図形表示を通信するのに適した構成である。よって、ローカル操作者と遠隔操作者の両方が図形を修正でき、その一方で両方の操作者が異なる視点から同じ図形を見ることが可能である。図形又は合成強化現実画像全体ではなく、カメラからのビデオ信号と図形表示のみがローカルサイトと遠隔サイト間で転送されるため、通信帯域幅を削減することができる。   In one embodiment of the invention, the system further comprises a second graphic generator located at the local site for generating the second graphic display, such that the local display device displays a view including the second graphic display. It is configured. This allows the local operator to generate a graphic display and add the graphic to the displayed view. The communication link is a configuration suitable for communicating the generated graphical representation between the local site and the remote site. Thus, both the local operator and the remote operator can modify the graphic, while both operators can view the same graphic from different viewpoints. The communication bandwidth can be reduced because only the video signal from the camera and the graphic display are transferred between the local site and the remote site, rather than the graphic or the entire composite augmented reality image.

本発明の1実施形態では、当該システムは、第2可動装置に対して固定された位置に配置された、画像取得のための第2カメラと、第2カメラからの画像に生成された図形表示を登録し、合成強化現実画像を提供する第2登録装置を備え、ローカル表示装置は合成強化現実画像を含むビューを表示するように構成されている。本実施形態では、コンピュータ生成図形を現実世界の画像に融合させる。或いは、コンピュータ生成図形を操作者が装着する透過ガラスに表示する。生成された図形はガラスに投射され、よって操作者は現実世界と処理対象物に対する図形を見ることができる。   In one embodiment of the present invention, the system comprises a second camera, located at a fixed position relative to the second mobile device, for image acquisition, and a graphic display generated on the image from the second camera. And a second registration device for registering the combined augmented reality image, wherein the local display device is configured to display a view including the combined augmented reality image. In the present embodiment, a computer-generated figure is fused to a real-world image. Alternatively, the computer-generated figure is displayed on the transmission glass worn by the operator. The generated graphic is projected on the glass, so that the operator can see the graphic for the real world and the object to be processed.

本発明の1実施形態では、遠隔表示装置は、遠隔サイトにおいて特定された位置と方向に基づく第1視角から見たビューを表示するように、ローカル表示装置は、ローカルサイトにおいて特定された位置と方向に基づく第2視角から見た、遠隔表示装置と同じビューを表示するように、それぞれ構成される。   In one embodiment of the present invention, the local display device is configured to display a view from a first viewing angle based on the position and orientation identified at the remote site. Each is configured to display the same view as the remote display from a second viewing angle based on direction.

本発明の1実施形態では、当該システムは、通信リンクを介してローカルサイトと遠隔サイトの間で音声を転送する手段を備える。これにより、遠隔操作者とローカル操作者は会話により通信することができる。好適には、前記通信手段は、遠隔サイト及びローカルサイトにマイク又はヘッドセットを備える。好適には、通信リンクはインターネットなどのネットワークである。   In one embodiment of the invention, the system comprises means for transferring audio between a local site and a remote site via a communication link. Thereby, the remote operator and the local operator can communicate by conversation. Preferably, the communication means comprises microphones or headsets at remote and local sites. Preferably, the communication link is a network such as the Internet.

本発明の別の実施態様では、冒頭に記した方法により本発明の課題を解決する。当該方法は、ローカルサイトから物理的に離れている遠隔サイトにおいて位置と方向を特定する過程と、特定された位置と方向に従って、ローカルサイトに位置するカメラの位置決定及び方向付けを行う過程と、カメラから前記画像を取得する過程と、図形を生成する過程と、前記画像、前記図形、及び前記特定された位置と方向に基づいて合成強化現実画像を生成する過程と、合成強化現実画像を含むビューを表示する過程とを含む。   In another embodiment of the invention, the object of the invention is achieved by the method described at the outset. The method includes the steps of identifying a position and an orientation at a remote site physically distant from the local site; and determining and orienting a camera located at the local site according to the identified location and orientation; Obtaining the image from a camera, generating a graphic, generating a synthetic augmented reality image based on the image, the graphic, and the specified position and direction, and including a synthetic augmented reality image. Displaying the view.

本発明のさらに別の実施態様は、コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、本発明による方法の過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品により本発明の目的を達成する。コンピュータプログラム製品は、コンピュータで読取可能な媒体、又はインターネットなどのネットワークを通じて提供される。   Yet another embodiment of the present invention is a computer program product that can be loaded directly into a computer's internal memory, the software for performing the steps of the method according to the present invention when the product is run on a computer. The object of the invention is achieved by a computer program product comprising a code part. The computer program product is provided through a computer-readable medium or a network such as the Internet.

本発明のさらに別の実施態様は、プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、コンピュータに本発明による方法の各過程を行わせるコンピュータで読取可能な媒体により本発明の目的を達成する。   Yet another embodiment of the present invention is a computer readable medium having recorded thereon a program, the program being executed on a computer, the computer causing the computer to perform the steps of the method according to the present invention. The object of the invention is achieved by possible media.

本発明の1実施形態では、当該システムは、表示部材とカメラとを備える手持ち型の表示装置を備える。好適には、手持ち型表示装置は、ユーザがディスプレイを通して直接見ているかのような印象を持つように構成される。手持ち型表示装置は、ユーザが折に触れてコンピュータ生成情報を見なければならないときに有効である。   In one embodiment of the present invention, the system includes a hand-held display device including a display member and a camera. Preferably, the handheld display device is configured to give the impression that the user is looking directly through the display. The hand-held display device is effective when the user must occasionally view computer-generated information.

本発明により、タスク又は処理(例えばロボットプログラムの生成)を遠隔地から実行することが可能になる。遠隔ロボットプログラミングに使用した場合の本発明の利点は、末端消費者がロボットプログラミング能力を有する職員を雇用及び訓練する必要がないこと、及び共同作業環境にプログラミング専門家の集団を有することでロボットプログラミングの効率が向上することである。   According to the present invention, a task or a process (for example, generation of a robot program) can be executed from a remote place. The advantages of the present invention when used for remote robot programming are that end consumers do not need to hire and train personnel with robot programming capabilities, and that they have a group of programming professionals in a collaborative work environment. Is to improve the efficiency.

本発明の複数の実施例、及び添付図面により、本発明を以下に詳述する。   BRIEF DESCRIPTION OF THE DRAWINGS The invention is described in more detail below with reference to several embodiments of the invention and the accompanying drawings.

図1には、本発明の実施例による強化現実システムが図示されている。当該システムは遠隔サイトに位置する部分と、ローカルサイトに位置する部分とを備える。ローカル部と遠隔部は通信リンク1により相互に接続されている。1以上の遠隔操作者3は遠隔サイトに位置している。遠隔部は、図形表示装置5(例えば頭部搭載表示装置)と、固定の遠隔座標系(xR,yR,zR)に対する表示装置5の位置と方向を決定する追随装置7と、図形表示と強化現実画像を生成するのに必要なソフトウェアを備えるコンピュータ9と、コンピュータ9がローカルサイトと通信するための通信装置11とを備えている。好適には、追随装置7の位置と方向は表示装置5に対して固定されている。コンピュータ9は、例えば装着可能なコンピュータである。携帯情報端末(PDA)スクリーン等の異なる種類の手持ち型ディスプレイも使用可能である。   FIG. 1 illustrates an augmented reality system according to an embodiment of the present invention. The system comprises a part located at a remote site and a part located at a local site. The local part and the remote part are interconnected by a communication link 1. One or more remote operators 3 are located at remote sites. The remote unit includes a graphic display device 5 (for example, a head mounted display device), a tracking device 7 for determining the position and direction of the display device 5 with respect to a fixed remote coordinate system (xR, yR, zR), a graphic display and enhancement. The computer 9 includes software necessary for generating a real image, and a communication device 11 for causing the computer 9 to communicate with a local site. Preferably, the position and direction of the tracking device 7 are fixed with respect to the display device 5. The computer 9 is, for example, a wearable computer. Different types of hand-held displays, such as personal digital assistant (PDA) screens, can also be used.

遠隔操作者3はまた、操作者が遠隔サイトの位置と方向を指し示すことを可能にするポンティング装置13を有する。指示装置13は、指示装置13の位置と方向を決定するための追随装置を備える。指示装置追随装置とディスプレイ追随装置から得られる位置と方向は、遠隔座標系(xR,yR,zR)に関連付けられており、該遠隔座標系はローカルサイトのローカル座標系(xL,yL,zL)に対応している。1変形例では、指示装置は、プッシュボタン等、操作者とシステムを相互に交流するのに適した複数のインタラクション手段を備える。該インタラクション手段は、例えば、処理に関する情報をシステムに入力するのに適している。或いは、操作者はキーボード又はその他任意の既知の入力手段により情報をシステムに供給する。   The remote operator 3 also has a pointing device 13 that allows the operator to indicate the location and direction of the remote site. The pointing device 13 includes a tracking device for determining the position and the direction of the pointing device 13. The position and orientation obtained from the pointing device tracking device and the display tracking device are associated with a remote coordinate system (xR, yR, zR), which is a local site local coordinate system (xL, yL, zL). It corresponds to. In a variant, the pointing device comprises a plurality of interaction means, such as push buttons, suitable for interacting with the operator and the system. The interaction means is suitable, for example, for inputting information regarding processing to the system. Alternatively, the operator supplies information to the system via a keyboard or any other known input means.

ディスプレイ追随装置7及び指示装置追随装置は、画像認識、加速度計、慣性センサ、ジャイロ、磁気追随装置、超音波、レーザ技術、及び全地球位置決定システム(GPS)等の、位置と方向を決定するための任意の従来技術に基づいている。   The display tracking device 7 and the pointing device tracking device determine the position and orientation of the image recognition, accelerometer, inertial sensor, gyro, magnetic tracking device, ultrasound, laser technology, Global Positioning System (GPS), etc. Based on any prior art for.

処理又は検査の対象物15がローカルサイトに位置している。システムのローカル部は、1又は複数のロボットマニピュレータ17と、ロボットアームの一端に搭載された、対象物15の立体又はモノスコープのビデオストリームを取得するためのカメラ装置19を備えている。ロボットに搭載されたカメラの位置と方向を決定するための追随装置を配置してもよい。或いは、ロボット制御システムからの情報に基づいてカメラの位置と方向を計算するシステムを設置してもよい。ロボットコントローラ20がロボットマニピュレータに接続されており、それによりリアルタイムで固定のローカル座標系(xL,yL,zL)に対して特定された位置と方向に従ってロボットアームを動かすことができる。以降、位置と方向のことをポーズと称する。ローカル部は、遠隔部通信装置11と通信する通信装置22をさらに備える。   An object 15 to be processed or inspected is located at a local site. The local part of the system comprises one or more robot manipulators 17 and a camera device 19 mounted at one end of the robot arm for acquiring a stereoscopic or monoscopic video stream of the object 15. A tracking device for determining the position and direction of a camera mounted on the robot may be provided. Alternatively, a system for calculating the position and direction of the camera based on information from the robot control system may be installed. A robot controller 20 is connected to the robot manipulator so that the robot arm can be moved in real time according to a specified position and direction with respect to a fixed local coordinate system (xL, yL, zL). Hereinafter, the position and the direction are referred to as a pose. The local unit further includes a communication device 22 that communicates with the remote communication device 11.

システムを所望の目的に使用するために、固定の遠隔座標系(xR,yR,zR)及びローカル座標系(xL,yL,zL)を予め特定する必要がある。遠隔サイトのポーズ(7,13)は遠隔座標系に関連付けられており、ローカルサイトにおいて指定されたポーズはローカル座標系に関連付けられている。よって、遠隔操作者3が遠隔座標系に対してポーズを指定したとき、ローカル座標系の規定によりこの地点のポーズがローカル環境において規定される。   In order to use the system for a desired purpose, a fixed remote coordinate system (xR, yR, zR) and a local coordinate system (xL, yL, zL) need to be specified in advance. The pose at the remote site (7, 13) is associated with the remote coordinate system, and the pose specified at the local site is associated with the local coordinate system. Therefore, when the remote operator 3 designates a pose for the remote coordinate system, the pose of this point is defined in the local environment according to the local coordinate system.

あらゆる種類のカメラを使用できるが、位置と方向に精度を求めると、カメラの種類は限定される。例えば、ウェブカメラ、ビデオカメラ、又はCCDカメラを使用することができる。別の実施形態では、立体画像を提供できるように配置された1以上(例えば2)のカメラを使用することができる。十分な自由度(好ましくは自由度5)を有する任意の既知の工業ロボットを使用できる。工業ロボットは互いに対して可動である複数のアームを有するマニピュレータと、アームの動きを制御する制御システムを備えている。   Any type of camera can be used, but the accuracy of the position and orientation will limit the type of camera. For example, a web camera, video camera, or CCD camera can be used. In another embodiment, one or more (eg, two) cameras arranged to provide a stereoscopic image can be used. Any known industrial robot having sufficient degrees of freedom (preferably 5 degrees of freedom) can be used. The industrial robot includes a manipulator having a plurality of arms movable with respect to each other, and a control system for controlling movement of the arms.

本発明の1実施例では、ローカル部に操作者がいなくてもシステムを操作することができる。本発明の別の実施例では、ローカル操作者が行うのは遠隔操作者のサポートである。ローカル部に操作者24が存在するとき、ローカル部は図形表示装置26(例えば頭部搭載型ディスプレイ)と、環境と対象物15の画像ストリームを取得するための、表示装置に搭載されたカメラ28と、ローカル座標系において表示装置26とカメラ28の位置と方向を決定する追随装置27と、カメラ28からのビデオストリームと生成された図形表示とに基づいて、図形表示と強化現実画像を生成するために必要なソフトウェアを含むコンピュータ32を備える。   In one embodiment of the present invention, the system can be operated without an operator in the local unit. In another embodiment of the invention, what the local operator does is support the remote operator. When the operator 24 is present in the local unit, the local unit includes a graphic display device 26 (for example, a head mounted display) and a camera 28 mounted on the display device for acquiring an image stream of the environment and the object 15. And a tracking device 27 for determining the position and direction of the display device 26 and the camera 28 in the local coordinate system; and generating a graphic display and an augmented reality image based on the video stream from the camera 28 and the generated graphic display. Computer 32 including software necessary for the operation.

カメラ28は表示装置26に対して固定の位置に搭載されている。好適には、表示装置は、カメラビューの軸に沿ってカメラの画像面内に配置される。別の実施例では、表示装置26は光学透過ディスプレイであり、ローカル操作者24は表示装置によりカメラストリーム無しで直接現実世界環境と対象物を見るため、カメラは不要である。ローカル部は手持ち型指示装置34と、ローカル座標系に対する該指示装置の位置と方向を決定する追随装置と、システムとのインタラクション手段とをさらに備える。好適には、コンピュータ32は装着可能なコンピュータである。   The camera 28 is mounted at a fixed position with respect to the display device 26. Preferably, the display device is located in the image plane of the camera along the axis of the camera view. In another embodiment, the display 26 is an optical transmissive display and the local operator 24 can view the real world environment and objects directly without a camera stream on the display, thus eliminating the need for a camera. The local unit further includes a hand-held pointing device 34, a tracking device for determining the position and direction of the pointing device with respect to the local coordinate system, and means for interacting with the system. Preferably, computer 32 is a wearable computer.

遠隔操作者3は表示装置5を装着しており、該操作者の動きは追随装置7により感知される。表示装置5と装着可能コンピュータ9間の通信は、有線又は無線リンクを介して行われる。コンピュータ9は、カメラ19からのビデオストリームと生成された図形表示に基づいて図形表示と強化現実画像を生成するのに必要なソフトウェアを含む。コンピュータ9はまた、所望のタスク又は処理(例えばロボットプログラムの生成)を行うためのソフトウェアを含む。最後に、コンピュータ9は以前に保存した情報を保存及び復元するための記憶媒体を含む。   The remote operator 3 is wearing the display device 5, and the movement of the operator is sensed by the tracking device 7. Communication between the display device 5 and the wearable computer 9 is performed via a wired or wireless link. The computer 9 includes software necessary for generating a graphic display and an augmented reality image based on the video stream from the camera 19 and the generated graphic display. The computer 9 also includes software for performing a desired task or process (for example, generating a robot program). Finally, the computer 9 includes a storage medium for saving and restoring previously saved information.

指示装置13からコンピュータ9への情報通信は、有線又は無線リンクを介して行われる。追随システムの種類によって、指示装置13のポーズは、指示装置自体から得られるか、又は外部追随装置から得られる。通信装置11は、コンピュータ9からローカル通信装置22への通信を可能にするのに必要なソフトウェアとハードウェアを含む。コンピュータ9から通信装置11への通信は、有線又は無線通信リンクにより提供される。遠隔通信装置11とローカル通信装置22間の通信は、インターネット又はその他適当な通信リンクを介して行うことができる。   Information communication from the pointing device 13 to the computer 9 is performed via a wired or wireless link. Depending on the type of the tracking system, the pose of the pointing device 13 can be obtained from the pointing device itself or from an external tracking device. The communication device 11 includes software and hardware necessary to enable communication from the computer 9 to the local communication device 22. Communication from the computer 9 to the communication device 11 is provided by a wired or wireless communication link. Communication between the remote communication device 11 and the local communication device 22 can be via the Internet or any other suitable communication link.

カメラ19がロボット17の先端に搭載されており、環境及び対象物15の画像を遠隔操作者3に転送する。ロボットコントローラ20は遠隔部のディスプレイ追随装置7から連続的に更新されるポーズを受信し、それにより該カメラは遠隔操作者3のポーズに従う位置へと移動する。指示装置34と表示装置26の位置はローカル部座標系に関連付けられる。ローカル操作者24は表示装置26を装着し、該表示装置はローカル環境と対象物15の強化現実ビューを操作者に提供する。表示装置26がビデオ透過型である場合、カメラ28を使用してローカル環境の画像を取得することができる。表示装置26が光学透過型である場合、カメラは不要である。   A camera 19 is mounted on the tip of the robot 17 and transfers images of the environment and the object 15 to the remote operator 3. The robot controller 20 receives the continuously updated pose from the display tracking device 7 in the remote part, whereby the camera moves to a position according to the pose of the remote operator 3. The positions of the pointing device 34 and the display device 26 are associated with the local coordinate system. The local operator 24 wears a display 26, which provides the operator with an augmented reality view of the local environment and the object 15. When the display device 26 is of a video transmission type, the image of the local environment can be acquired using the camera 28. If the display device 26 is of the optical transmission type, no camera is required.

ローカル操作者24は指示装置34を使用してポーズを特定し、共有バーチャル環境とインタラクションさせる。指示装置34の位置はローカル座標系上で追随される。コンピュータ32はローカル強化現実ビューを生成するのに必要なソフトウェアを含む。コンピュータ32は、遠隔操作者が見た、処理又はタスクに関連した図形を生成する。コンピュータ32はまた、遠隔部又は他のローカル部から通信リンク1を介して転送された仮想現実世界の図形表示を含む図形装置を含む。従って、ローカルサイトと遠隔サイト間で、ビデオフォーマットの図形を転送する必要が無く、これにより通信帯域幅要件を低減することができる。コンピュータ32は、バーチャル図形表示、或いは、遠隔又はローカル操作者により与えられた処理又はタスク関連情報等の、処理関連情報を保存するために使用される記憶装置をさらに備える。ローカルサイトはまた、同様にシステムとインタラクションするさらに多くのローカル操作者を含むことができる。   The local operator 24 uses the pointing device 34 to identify poses and interact with the shared virtual environment. The position of the pointing device 34 is tracked on a local coordinate system. Computer 32 includes the software necessary to generate a local augmented reality view. Computer 32 generates graphics associated with the process or task that the remote operator has seen. Computer 32 also includes a graphics device that includes a virtual real-world graphics transfer transferred over a communication link 1 from a remote or other local unit. Therefore, there is no need to transfer graphics in video format between the local site and the remote site, which can reduce communication bandwidth requirements. Computer 32 further comprises storage used to store process related information, such as virtual graphic displays or process or task related information provided by remote or local operators. A local site may also include more local operators that interact with the system as well.

図2は、本発明の1実施例による強化現実システムのブロック図である。遠隔サイトに位置するシステムの遠隔部は、ロボットに搭載されたローカルカメラ19から画像のビデオストリームを受信する。遠隔操作者3は指示及びインタラクション装置13を介してシステムと交流することができる。追随装置は指示装置のポーズを3Dで追随することを可能にし、また遠隔座標系を特定するためにも使用できる。ロボットをプログラミングする際に、ロボットパス上のウェイポイントの指定、及び処理関連情報の特定に指示装置13を使用することが可能であり、一方遠隔検査においては、指示装置を使用して検査するべき対象物又は構造にバーチャル情報を付加することができる。   FIG. 2 is a block diagram of an augmented reality system according to one embodiment of the present invention. The remote part of the system located at the remote site receives a video stream of images from a local camera 19 mounted on the robot. The remote operator 3 can interact with the system via the instruction and interaction device 13. The tracking device allows the pose of the pointing device to be tracked in 3D and can also be used to specify a remote coordinate system. When programming the robot, it is possible to use the pointing device 13 to specify waypoints on the robot path and to identify processing-related information, while in remote inspection, the pointing device should be used for inspection. Virtual information can be added to the object or structure.

指示装置13からの出力と、操作者がシステムに供給した情報は、適用装置36に転送される。適用装置36は、ロボットプログラムの生成や遠隔検査の支援といった所望の処理又はタスクを実行するために必要なソフトウェアを含む。図形装置37は、適用装置36に示された視覚情報の3D図形表示を生成する図形生成器を備える。図形装置37は、視覚化される複数の3D図形要素の仕様を有する。適用装置36からの図形の表示を保持することに加え、図形装置37はまた、他の遠隔部又はローカル部から得られたバーチャル図形表示全体を含む。全図形要素の位置は遠隔座標系に対して特定される。ロボットプログラミングの分野では、関連する視覚情報は、操作者が指定したウェイポイント、実際のロボットパス、及びタスクに特定の情報である。加えて、他の操作者が指し示すものの視覚的表示を操作者が得ることができるように、指示装置のポーズが提供される。生成された図形表示は登録装置38に転送される。記憶装置39により、適用作業に関連する情報の保存及びロードが可能である。   The output from the pointing device 13 and the information supplied to the system by the operator are transferred to the application device 36. The application device 36 includes software necessary to execute a desired process or task, such as generation of a robot program and assistance in remote inspection. The graphic device 37 includes a graphic generator that generates a 3D graphic display of the visual information shown in the application device 36. The graphic device 37 has specifications for a plurality of 3D graphic elements to be visualized. In addition to maintaining the display of the graphic from the application device 36, the graphic device 37 also includes the entire virtual graphic display obtained from another remote or local part. The positions of all graphic elements are specified with respect to a remote coordinate system. In the field of robot programming, the relevant visual information is operator-specified waypoints, actual robot paths, and task-specific information. In addition, a pose for the pointing device is provided so that the operator can obtain a visual indication of what another operator is pointing at. The generated graphic display is transferred to the registration device 38. The storage device 39 can store and load information related to the application work.

ディスプレイ追随装置7は、表示装置5のポーズに関する更新データを連続的に伝達する。ポーズデータは通信装置11に転送され、さらにロボットコントローラ装置20に転送される。ディスプレイ追随装置7からのポーズデータは登録装置38にも転送される。登録装置38は図形を生成し、また図形装置37の図形表示に基づいてカメラ装置19から得た画像に図形を登録し、よって合成強化現実画像を提供する。登録装置38はディスプレイ追随装置7から得たポーズデータを使用してコンピュータ生成図形を現実世界画像に重ねる。登録が正確に行われると、コンピュータ生成図形が現実世界のシーンに視覚的に添付される。組み合わされた画像は表示装置5に表示される。   The display following device 7 continuously transmits update data relating to the pose of the display device 5. The pause data is transferred to the communication device 11 and further transferred to the robot controller device 20. The pause data from the display following device 7 is also transferred to the registration device 38. The registration device 38 generates a graphic and registers the graphic in the image obtained from the camera device 19 based on the graphic display of the graphic device 37, thereby providing a synthetic enhanced reality image. The registration device 38 uses the pose data obtained from the display following device 7 to superimpose the computer-generated figure on the real world image. If the registration is done correctly, the computer generated graphics will be visually attached to the real world scene. The combined image is displayed on the display device 5.

ローカル通信装置22は、遠隔座標系上の遠隔表示装置5のポーズに関する情報を連続的に受信し、このデータをロボットコントローラ装置20に供給する。ロボットコントローラ装置20は、ローカル座標系上の同じポーズにロボットに搭載されたカメラ19を向ける。カメラ19は、シーンの画像を連続的に取得し、それは通信装置22に、さらに登録装置38に返送される。   The local communication device 22 continuously receives information on the pose of the remote display device 5 on the remote coordinate system, and supplies this data to the robot controller device 20. The robot controller device 20 directs the camera 19 mounted on the robot to the same pose on the local coordinate system. The camera 19 continuously acquires images of the scene, which are returned to the communication device 22 and further to the registration device 38.

図3は、ローカルサイトに所在するローカル部の別の実施例を示す。本実施例は、遠隔操作者とローカル操作者の共同作業について示されたものである。通信装置22は、遠隔操作者が特定した処理に関する特定の情報、遠隔表示装置5の現在のポーズ、及び遠隔指示装置13の現在のポーズと、遠隔図形装置37において生成された図形表示を受信する。受信された図形表示はローカルサーバ装置40に転送される。表示装置26に取り付けられたカメラ装置28は、ローカル現現実世界画像を生成する。カメラ28と表示装置26のポーズは、ローカル座標系に従って決定され、現現実世界シーンに図形モジュール44から生成されたコンピュータ生成図形を重ね合わせる登録装置42に転送される。図形モジュール44は、共有されるバーチャル環境に提供された図形要素の表示であるバーチャル図形情報を遠隔サイトから受信し、表示する。   FIG. 3 shows another embodiment of the local unit located at the local site. This embodiment shows a joint operation between a remote operator and a local operator. The communication device 22 receives specific information regarding the process specified by the remote operator, the current pose of the remote display device 5, the current pose of the remote pointing device 13, and the graphic display generated on the remote graphic device 37. . The received graphic display is transferred to the local server device 40. A camera device 28 attached to the display device 26 generates a local real-world image. The poses of the camera 28 and the display device 26 are determined according to the local coordinate system and transferred to the registration device 42 which superimposes a computer generated graphic generated from the graphic module 44 on the current real world scene. The graphics module 44 receives and displays from a remote site virtual graphics information, which is a representation of the graphics elements provided to the shared virtual environment.

ローカル操作者は、指示及びインタラクション装置34を使用してシステムと交流する。指示装置のポーズは、共有されるバーチャル環境において可視であるように、図形情報と共に提供される。ローカル操作者に関する図形表示は、通信装置22によって他の操作者に転送される。指示及びインタラクション装置34からの情報は、指示装置の図形表示を生成するローカル図形モジュール44に転送される。この図形表示は、ローカル登録装置42へ、サーバ装置40を介して通信装置22へ、及び遠隔通信装置11を介して遠隔図形装置37へと転送される。遠隔図形モジュールは、受信した図形表示を、遠隔部の情報に基づいて生成された図形表示に付加する。このようにして、遠隔操作者とローカル操作者は異なる視点から見た同一のビューを見ることができる。   The local operator interacts with the system using the pointing and interaction device 34. The pose of the pointing device is provided with the graphical information so that it is visible in the shared virtual environment. The graphic display relating to the local operator is transferred by the communication device 22 to another operator. Information from the pointing and interaction device 34 is transferred to a local graphics module 44 that generates a graphical representation of the pointing device. This graphic display is transferred to the local registration device 42, to the communication device 22 via the server device 40, and to the remote graphic device 37 via the remote communication device 11. The remote graphic module adds the received graphic display to the graphic display generated based on the information of the remote part. In this way, the remote operator and the local operator can see the same view from different viewpoints.

サーバ装置40は、通信装置22を介して遠隔サイトからデータを受信する。さらに、サーバ装置40はローカル座標系に関する情報を保持している。サーバ装置40と通信する記憶装置46は、システム情報(例えば、適用作業関連情報、図形表示、及びローカル座標系等のシステム構成パラメータ)を記憶するために使用される。1又は複数のローカル操作者を、サーバ装置40に従属させることができる。   The server device 40 receives data from a remote site via the communication device 22. Further, the server device 40 holds information on the local coordinate system. The storage device 46 that communicates with the server device 40 is used to store system information (for example, application-related information, graphic display, and system configuration parameters such as a local coordinate system). One or more local operators can be subordinate to the server device 40.

当該システムは、通信リンクを介して、遠隔操作者とローカル操作者の間で双方向に音声を転送することができるように構成されている。ローカル操作者と遠隔操作者の両方にマイクロフォンとヘッドセットを装備することにより、操作者が音声によって互いに通信することができる。   The system is configured to allow two-way audio transfer between a remote operator and a local operator via a communication link. By equipping both the local operator and the remote operator with a microphone and a headset, the operators can communicate with each other by voice.

後述では、本発明による強化現実システムの使用法について説明する。ローカル操作者及び遠隔操作者のいずれもセッションを開始することができる。或いは、セッションの開始は予め設定される。まず、ローカル座標系を特定しなければならない。これを行う1つの方法に6点較正法があり、該方法では、操作者が座標系の位置と方向を規定する6点を特定する。ローカル追随装置によって与えられる全てのポーズ情報をこのローカル座標系に関連付ける。このローカル座標系に関連付けられたロボットの位置と方向も認知される必要がある。このように、遠隔地から特定された点もロボット座標系にマッピングすることができる。   In the following, the use of the augmented reality system according to the present invention will be described. Both local and remote operators can initiate sessions. Alternatively, the start of the session is set in advance. First, the local coordinate system must be specified. One way to do this is the six-point calibration method, in which the operator specifies six points that define the position and direction of the coordinate system. All pose information provided by the local tracking device is associated with this local coordinate system. The position and orientation of the robot associated with this local coordinate system also need to be recognized. In this way, a point specified from a remote location can also be mapped to the robot coordinate system.

遠隔操作者は表示装置を装着することによりシステムの操作を開始する。遠隔操作者は、次いで、ローカル座標系に対応する遠隔座標系を特定しなければならない。遠隔座標系は、ローカル座標系と同様にして特定することができる。遠隔追随装置により提供された全ポーズ情報を遠隔座標系に関連付ける。ローカルサイトでは、目標対象物がローカル座標系における所望の位置に配置される。   The remote operator starts operating the system by mounting the display device. The remote operator must then specify a remote coordinate system that corresponds to the local coordinate system. The remote coordinate system can be specified in the same manner as the local coordinate system. All pose information provided by the remote tracking device is associated with a remote coordinate system. At the local site, the target object is located at a desired position in the local coordinate system.

遠隔操作者がシステムの使用を開始すると、遠隔表示装置の動きがディスプレイ追随装置によって捕らえられ、通信リンクによりローカルアプリケーションサーバに転送される。次いで、ローカル通信サーバは、ロボットコントローラに対し、遠隔ディスプレイ追随装置により特定されたポーズにカメラを移動しろという指令を送る。ここで、ロボット搭載型カメラの位置は、遠隔座標系において追随装置が位置するのと同じ、ローカル座標系上のポーズへと移動する。   When the remote operator starts using the system, the movement of the remote display device is captured by the display following device and transferred to the local application server via a communication link. The local communication server then sends a command to the robot controller to move the camera to the pose specified by the remote display tracking device. Here, the position of the robot-mounted camera moves to the pose on the local coordinate system, which is the same as the position of the tracking device in the remote coordinate system.

遠隔指示装置のポーズは遠隔座標系上で追随される。遠隔指示装置に関するポーズ情報はローカル通信装置に転送される。ローカル操作者が存在する場合、ローカル操作者のローカル表示装置上にコンピュータ生成図形を提供するために、遠隔操作者の指示装置の位置が使用される。よって、ローカル操作者は、実際のシーンに重ね合わせたバーチャル3D図形により、遠隔操作者の指示装置の動きをリアルタイムで視覚化することができる。   The pose of the remote pointing device is followed on the remote coordinate system. Pause information for the remote pointing device is transferred to the local communication device. If a local operator is present, the location of the remote operator's pointing device is used to provide computer-generated graphics on the local operator's local display. Therefore, the local operator can visualize the movement of the pointing device of the remote operator in real time using the virtual 3D graphic superimposed on the actual scene.

この段階において遠隔ユーザは所望の処理(例えばロボットプログラムの生成)を実行することができる。特定のタスクを実行する間、処理関連情報はコンピュータ生成3D図形と共に遠隔表示装置上に視覚化される。図形にローカルカメラからの現現実世界表示を重ね、遠隔座標系に対して固定する。これにより、目標対象物の画像にコンピュータ生成図形が付加されて、遠隔ユーザは目標対象物の周囲を仮想現実的に動くことができる。ローカルロボット搭載型カメラが遠隔操作者の動きに従って動くように、遠隔操作者の動きが捉えられ、ローカルロボット搭載型カメラに転送される。   At this stage, the remote user can execute a desired process (for example, generation of a robot program). While performing a particular task, process related information is visualized on a remote display along with computer generated 3D graphics. The real-world display from the local camera is superimposed on the figure and fixed with respect to the remote coordinate system. As a result, the computer-generated graphic is added to the image of the target object, and the remote user can virtually move around the target object. The movement of the remote operator is captured and transferred to the camera equipped with the local robot so that the camera equipped with the local robot moves according to the movement of the remote operator.

遠隔ユーザが何らかのオフラインタスク(例えばロボットパスプログラムの生成)を実行する場合、ローカル操作者はまた、3Dコンピュータ生成図形がローカル表示装置に表示されることにより、遠隔操作者と同様に処理結果を視覚化することができる。処理の図形はローカル操作者から見た現現実世界表示に登録され、重ねられるので、ローカル操作者が新しい位置に移動すると、コンピュータにより生成された処理の図形がローカル座標系に固定されて視覚化される。   If the remote user performs some off-line tasks (e.g., generating a robot path program), the local operator can also view the processing results as a remote operator by displaying the 3D computer generated graphics on the local display. Can be Processing figures are registered and superimposed on the real-world display as seen by the local operator, so when the local operator moves to a new position, the computer-generated processing figures are fixed in the local coordinate system and visualized. Is done.

ローカル操作者が指示及びインタラクション装置も装着している場合、ローカル指示装置の位置はローカル操作者及び遠隔操作者に対して視覚化される。ローカル指示装置の位置がローカル座標系上で追随される。ローカル指示装置に関するポーズ情報が、ローカル及び遠隔通信装置を介して遠隔サイトに転送される。ローカル操作者の指示装置のポーズ情報は、遠隔表示装置及びローカル表示装置にコンピュータ生成図形を表示するために使用される。このようにして、遠隔操作者はローカル操作者の指示装置の動きを視覚化することができる。さらに多くの遠隔操作者がいる場合も、各遠隔操作者は他の遠隔操作者の指示装置の動きを視覚化することができる。   If the local operator is also wearing a pointing and interaction device, the location of the local pointing device is visualized to the local and remote operators. The position of the local pointing device is tracked on a local coordinate system. Pause information for the local pointing device is transferred to the remote site via the local and remote communication devices. The pose information of the local operator's pointing device is used to display computer generated graphics on the remote display and the local display. In this way, the remote operator can visualize the movement of the pointing device of the local operator. Even when there are more remote operators, each remote operator can visualize the movement of the pointing device of another remote operator.

本発明による方法を実行するために使用されるソフトウェアは、当業者に既知のソフトウェアに部分的に基づいている。例えば、指示部材の位置と方向をARToolKitで生成することができる。ARToolKitはワシントン大学と広島大学によって開発されたもので、正確なコンピュータの視覚に基づく追随技術を使用した強化現実アプリケーションの構築を可能にする公開ソフトウェアライブラリである。適用業務インタフェイスのために、Open GLというソフトウェアを使用することができる。Open GLは、モデル修正、色、光及び陰影機能を含む2D及び3D機能のライブラリを提供している。マイクロソフト Vision SDKは、画像操作とコンピュータ上での分析を実行する書き込みプログラムのライブラリである。強化現実ソフトウェアには、点と線等の描画図形のアルゴリズム、異なる座標系間での位置と方向の転送、位置と方向のシーケンスリストの抽出及び生成、処理関連情報の獲得、並びに、異なる幅と方向の塗装を表す塗り分け点及び線等の、描画における先端図形が含まれる。   The software used to perform the method according to the invention is based in part on software known to those skilled in the art. For example, the position and the direction of the pointing member can be generated by the ARTToolKit. ARTToolKit was developed by the University of Washington and Hiroshima University and is a public software library that enables the construction of augmented reality applications using tracking technology based on accurate computer vision. For the application interface, Open GL software can be used. Open GL provides a library of 2D and 3D functions, including model correction, color, light and shading functions. Microsoft Vision SDK is a library of writing programs that perform image manipulation and analysis on a computer. Augmented reality software includes algorithms for drawing figures such as points and lines, transfer of positions and directions between different coordinate systems, extraction and generation of position and direction sequence lists, acquisition of processing-related information, and The figure includes a tip figure in the drawing, such as a painting point and a line representing painting in the direction.

本発明は開示された実施例に限定されるものではなく、請求の範囲に規定される範囲内で変更及び修正可能である。例えば、1変形例では、遠隔サイトに、複数のカメラと、複数の表示装置と、複数の特定装置と、複数の図形生成器と、複数の登録装置を設置し、2以上の遠隔操作者が、同時に、ローカルサイトの環境と、それに重ねられた図形を自身のビューから見ることを可能にする。別の変形実施例では、ローカルサイトにも複数のカメラと、複数の表示装置と、複数の特定装置と、複数の図形生成器と、複数の登録装置を設置し、2以上のローカル操作者が、同時に、ローカルサイトの環境と、それに重ねられた図形を、複数の視点から見ることを可能にする。   The invention is not limited to the disclosed embodiments, but can be varied and modified within the scope defined by the claims. For example, in one modified example, a plurality of cameras, a plurality of display devices, a plurality of specific devices, a plurality of graphic generators, and a plurality of registration devices are installed at a remote site, and two or more remote operators are installed. At the same time, it allows you to see the environment of the local site and the superimposed figures from your own view. In another modified embodiment, a plurality of cameras, a plurality of display devices, a plurality of specific devices, a plurality of graphic generators, and a plurality of registration devices are installed at a local site, and two or more local operators are installed. At the same time, it is possible to see the environment of the local site and the figure superimposed on it from multiple viewpoints.

1変形例では、操作者が位置と方向をシステムに供給する。例えば、操作者は1以上のジョイスティックにより位置と方向を特定する。この実施例では、表示装置は固定のコンピュータスクリーンである。   In one variation, the operator supplies the position and orientation to the system. For example, an operator specifies a position and a direction with one or more joysticks. In this embodiment, the display is a stationary computer screen.

1実施例では、システムは手持ち型強化現実表示装置を備える。操作者は、コンピュータ生成図形を重ねた現現実世界を表示する手持ち型表示装置を携行する。コンピュータ生成図形は、プログラムされたロボットパス、処理特定情報、目標点及び作業等の処理関連情報を表示する。動きに基づく認識システムにより操作者の手の動きを使用するか、又は指示及びインタラクション装置を使用して、処理関連情報をシステムに対して特定する。   In one embodiment, the system comprises a handheld augmented reality display. The operator carries a hand-held display device that displays the current real world with computer-generated graphics superimposed. The computer generated graphic displays processing related information such as programmed robot path, processing specific information, target points and tasks. Either using the movement of the operator's hand with a motion-based recognition system or using an instruction and interaction device, the processing-related information is specified to the system.

コンピュータ生成情報は、ロボットプログラミングのための操作者による入力を表示する。操作者は手持ち型ARディスプレイを利用して、新規ロボットプログラムを作成しながら自身の作業の結果を観察する。手持ち型ディスプレイは、ディスプレイと同じ視界が内蔵されたカメラを有する。該カメラは現実世界のライブビデオを取得する。システムは、操作者の入力を表示するコンピュータ生成図形に該ライブビデオを組み合わせ、且つ同期させ、それを手持ち型ARディスプレイ上に表示する。操作者は環境内で手持ち型ARディスプレイを自由に動かすことができるので、異なる視点から見た対象物を含むローカル環境にコンピュータ生成図形を重ねて見ることができる。操作者は、手持ち型ARディスプレイを介してその反対側を「覗き込む」ことで、実際の対象物に対して生成されたロボットプログラムを見ることができる。   Computer-generated information indicates input by an operator for robot programming. The operator observes the result of his / her work while creating a new robot program using the hand-held AR display. Handheld displays have cameras with the same field of view as the display. The camera acquires live video of the real world. The system combines and synchronizes the live video with a computer-generated graphic that displays operator input and displays it on a handheld AR display. Since the operator can freely move the hand-held AR display in the environment, the computer-generated figure can be superimposed on the local environment including the object viewed from different viewpoints. The operator can see the robot program generated for the actual target object by "looking into" the opposite side via the hand-held AR display.

本発明によるシステムを図4に示す。当該システムは、手持ち型インタラクション/指示装置1を備えており、該インタラクション/指示装置には、該インタラクション/指示装置の位置と方向を絶対座標系60上で決定するための追随システムが取り付けられている。或いは、当該システムは、絶対座標系において手又は指の、位置と方向を認識及び決定するための認識システムを有する、動きに基づく認識システムを備える。システムは、手持ち型表示装置62(例えば超小型PC又はPDA)をさらに備える。表示装置は表示部材64と、該表示装置64に搭載又は内蔵された、環境の画像ストリームを取得するためのカメラ8とを備える。カメラ8は表示装置64に対して固定の位置に設置される。表示装置は、カメラのビュー軸に沿って、カメラの画像面内に配置される。   The system according to the invention is shown in FIG. The system comprises a hand-held interaction / indication device 1, which is provided with a tracking system for determining the position and orientation of the interaction / indication device on an absolute coordinate system 60. I have. Alternatively, the system comprises a motion-based recognition system having a recognition system for recognizing and determining the position and orientation of a hand or finger in an absolute coordinate system. The system further includes a handheld display 62 (eg, a miniature PC or PDA). The display device includes a display member 64 and a camera 8 mounted or built in the display device 64 for acquiring an image stream of the environment. The camera 8 is installed at a fixed position with respect to the display device 64. The display device is located in the camera image plane along the camera view axis.

当該システムは、表示装置の位置と方向を決定するための追随システム66をさらに備える。好ましくは、追随システムは表示装置の上に搭載される。システムはまた、現実世界表示に重ね合わせたコンピュータ生成図形情報の強化現実表示を生成するためのシステムを備える。操作者2の動きはディスプレイ追随システム66によって感知される。   The system further comprises a tracking system 66 for determining the position and orientation of the display device. Preferably, the tracking system is mounted on a display device. The system also includes a system for generating an augmented reality display of the computer generated graphic information superimposed on the real world display. The movement of the operator 2 is sensed by the display following system 66.

装着可能なコンピュータ68は、カメラ8からのビデオストリームとコンピュータ生成図形とに基づいて強化現実環境を生成するのに必要なソフトウェアを含む。装着可能なコンピュータ68はまた、所望のタスク又は処理(例えばロボットプログラムの生成と到達可能性の確認)を実行するのに必要なソフトウェアを含む。さらに、装着可能コンピュータは、強化現実ビューを提供する図形を生成する。最後に、装着可能コンピュータは、以前に保存した情報を保存及び復元するための記憶媒体を含む。インタラクション/指示装置1から装着可能コンピュータ68への情報の通信は、有線又は無線リンクを介して行われる。操作者は、表示装置62を携行し、それにより環境の強化現実ビューを見る。表示装置は「ビデオ透過」型である。   The wearable computer 68 includes the software necessary to create an augmented reality environment based on the video stream from the camera 8 and the computer generated graphics. The wearable computer 68 also includes the necessary software to perform the desired task or process (eg, create a robot program and verify reachability). Further, the wearable computer generates a graphic that provides an augmented reality view. Finally, the wearable computer includes a storage medium for saving and restoring previously saved information. Communication of information from the interaction / instruction device 1 to the wearable computer 68 is via a wired or wireless link. The operator carries the display device 62, thereby viewing an augmented reality view of the environment. The display is of the "video transparent" type.

ビデオ透過は、手持ち型AR表示装置に強化現実世界を生成及び表示するために使用される。表示装置に内蔵されたカメラは現実世界のライブビデオを取得するために使用される。カメラはディスプレイに対し、ユーザが表示装置を「介して」反対側を覗き込んだときに見るのと同じビューを提供するような位置に配置される。コンピュータ生成図形を組み合わせたライブビデオストリームはリアルタイムで表示装置に表示される。追加的な機能には、実際のカメラの焦点距離の出力によるカメラのズーミングが含まれる。これにより、システムは倍率を変更しながらコンピュータ生成図形を正確に表示することができる。追随システムに視覚に基づく追随を用いる場合、視覚に基づく追随にカメラを使用することもできる。   Video transparency is used to create and display augmented real world on handheld AR displays. A camera built into the display device is used to obtain live video of the real world. The camera is positioned with respect to the display so as to provide the same view as the user looks through the display at the other side. The live video stream combining the computer generated graphics is displayed on a display device in real time. Additional features include camera zooming with the output of the actual camera focal length. This allows the system to accurately display computer generated graphics while changing magnification. If vision-based tracking is used for the tracking system, a camera can also be used for vision-based tracking.

本発明の実施例による強化現実システムを示す。1 shows an augmented reality system according to an embodiment of the present invention. 本発明の実施例による、ローカル部と遠隔部を含む強化現実システムのブロック図である。FIG. 2 is a block diagram of an augmented reality system including a local part and a remote part according to an embodiment of the present invention; 本発明の別の実施例による強化現実システムのローカル部のブロック図である。FIG. 7 is a block diagram of a local part of an augmented reality system according to another embodiment of the present invention. 手持ち型表示装置を備えた本発明の実施例を示す。1 shows an embodiment of the invention with a hand-held display device.

符号の説明Explanation of reference numerals

1 通信リンク
3 遠隔操作者
5 図形表示装置
7 追随装置
9 コンピュータ
11 遠隔部通信装置
13 指示装置
15 対象物
17 マニピュレータ
19 カメラ
20 ロボットコントローラ
22 ローカル通信装置
24 ローカル操作者
26 表示装置
27 追随装置
28 カメラ
32 コンピュータ
34 手持ち型指示装置
DESCRIPTION OF SYMBOLS 1 Communication link 3 Remote operator 5 Graphic display device 7 Tracking device 9 Computer 11 Remote communication device 13 Pointing device 15 Object 17 Manipulator 19 Camera 20 Robot controller 22 Local communication device 24 Local operator 26 Display device 27 Tracking device 28 Camera 32 Computer 34 Handheld pointing device

Claims (33)

− ローカルサイトに可動に配置された画像取得のためのカメラ(19)と、
− 図形を生成し、該生成された図形をカメラからの画像に登録することにより合成強化現実画像を提供する登録装置(38)と、
− ローカルサイトから物理的に分離した遠隔サイトに配置された、合成強化現実画像を含むビューを表示するための表示装置(5)と、
− ローカルサイトと遠隔サイト間の情報通信のための通信リンク(1)と
を備え、
遠隔サイトにおける位置と方向を特定するための特定装置(7)をさらに備えており、カメラの位置と方向が該特定された位置と方向に基づいて決定され、前記登録装置が該特定された位置と方向に基づいて生成された図形を画像に登録するように構成されていることを特徴とする強化現実システム。
A camera (19) movably arranged at a local site for image acquisition;
A registration device (38) for generating a graphic and registering the generated graphic with an image from a camera to provide a synthetic augmented reality image;
A display device (5), located at a remote site physically separated from the local site, for displaying a view including the synthetic augmented reality image;
A communication link (1) for information communication between a local site and a remote site,
The apparatus further includes a specifying device (7) for specifying a position and a direction at the remote site, wherein a position and a direction of the camera are determined based on the specified position and direction, and the registration device determines the position and the direction of the camera. An augmented reality system configured to register a figure generated based on a direction and an image in an image.
前記特定装置が遠隔サイトに位置する可動装置(5)の位置と方向を決定するように構成された追随装置(7)を備え、前記登録装置(38)が可動装置の位置と方向に基づいて生成された図形を画像に登録するように構成されており、及びカメラ(19)の位置と方向が可動装置の位置と方向に基づいて決定されることを特徴とする、請求項1に記載のシステム。   The specific device comprises a tracking device (7) configured to determine the location and orientation of a mobile device (5) located at a remote site, and the registration device (38) is based on the location and orientation of the mobile device. 2. The method according to claim 1, wherein the generated graphic is configured to be registered in the image, and a position and an orientation of the camera are determined based on a position and an orientation of the movable device. 3. system. 可動装置が表示装置(5)である請求項2に記載のシステム。   The system according to claim 2, wherein the mobile device is a display device (5). ローカルサイトに位置するロボット(17,20)をさらに備え、該ロボットがカメラを搭載し、ロボットの動きが前記特定された位置と方向に基づいて決定されることを特徴とする、請求項1ないし3のいずれか1項に記載のシステム。   The robot (17, 20) located at a local site, further comprising a camera, wherein the movement of the robot is determined based on the specified position and direction. The system according to any one of claims 3 to 3. 図形表示を生成する図形生成器(37)をさらに備え、前記登録装置(38)が該図形表示に基づいて図形を生成するように構成されていることを特徴とする、請求項1ないし4のいずれか1項に記載のシステム。   5. A graphic generator according to claim 1, further comprising a graphic generator for generating a graphic display, wherein said registration device is configured to generate a graphic based on said graphic display. A system according to any one of the preceding claims. 表示する図形に関連するデータをシステムに供給するための、遠隔サイトに位置する操作者入力手段(13)をさらに備えており、システムは該データに基づいて図形を生成するように構成されていることを特徴とする、請求項1ないし5のいずれか1項に記載のシステム。   There is further provided an operator input means (13) located at a remote site for providing data relating to the graphic to be displayed to the system, the system being configured to generate the graphic based on the data. The system according to any one of claims 1 to 5, characterized in that: 前記操作者入力手段が、指示装置(13)と、該指示装置の位置を決定するための追随装置とを備えており、システムは指示装置の位置に基づいて指示部材が現在指し示している地点の図形表示を生成するように構成されていることを特徴とする、請求項6に記載のシステム。   The operator input means includes a pointing device (13) and a follow-up device for determining the position of the pointing device, and the system determines the position of the point currently pointed to by the pointing member based on the position of the pointing device. 7. The system of claim 6, wherein the system is configured to generate a graphical display. ローカルサイトにおける位置と方向を特定するための第2特定装置(27)と、図形を生成し、該生成された図形を、実際の環境又はローカルサイトの環境の画像に、第2特定装置(27)により特定された位置と方向に基づいて登録する第2登録装置(42)と、ローカルサイトの環境と、該環境に投射される前記生成された図形とを含むビューを表示するように構成されたローカル表示装置(26)とを備えることを特徴とする、請求項1ないし7のいずれか1項に記載のシステム。   A second specifying device (27) for specifying a position and a direction at the local site, and generating a graphic; converting the generated graphic into an image of an actual environment or an environment of the local site; ), A second registration device (42) for registering based on the position and direction specified by the method, and a view including the environment of the local site and the generated graphic projected on the environment. System according to one of the preceding claims, characterized in that it comprises a local display (26). ローカルサイトに位置する第2可動装置(26)を備えており、第2特定装置が、該第2可動装置の位置と方向を決定する第2追随装置(27)を備えることを特徴とする、請求項8に記載のシステム。   A second mobile device (26) located at the local site, wherein the second identifying device comprises a second tracking device (27) for determining the position and direction of the second mobile device, The system according to claim 8. 前記第2可動装置がローカル表示装置(26)であることを特徴とする、請求項9に記載のシステム。   The system according to claim 9, wherein the second mobile device is a local display (26). 第2可動装置(26)に対して固定に配置された、画像取得のための第2カメラ(28)を備えており、第2登録装置(42)が、生成された図形を第2カメラ(28)からの画像に登録することにより合成強化現実画像を提供するように構成され、ローカル表示装置が合成強化現実画像を含むビューを表示するように構成されていることを特徴とする、請求項9又は10に記載のシステム。   A second camera (28) for image acquisition, which is fixed to the second movable device (26), is provided. The second registration device (42) transmits the generated figure to the second camera (28). 28. The method of claim 28, wherein the local display device is configured to display a view including the synthetic augmented reality image by registering with the image from 28). The system according to 9 or 10. 遠隔表示装置(5)は、前記第1特定装置(7)から受信した位置と方向に基づく第1視角から見たビューを表示するように、ローカル表示装置(26)は、前記第2特定装置(27)から受信した位置と方向に基づく第2視角から見た、遠隔表示装置(5)と同じビューを表示するように、それぞれ構成されていることを特徴とする、請求項8ないし11のいずれか1項に記載のシステム。   The local display device (26) is configured to display the view viewed from a first viewing angle based on the position and direction received from the first specifying device (7). 12. The display device according to claim 8, characterized in that it is configured to display the same view as the remote display device (5) from a second viewing angle based on the position and direction received from (27). A system according to any one of the preceding claims. 通信リンクを介し、遠隔サイトとローカルサイト間で音声を転送する手段を備えることを特徴とする、請求項1ないし12のいずれか1項に記載のシステム。   The system according to any of the preceding claims, comprising means for transferring audio between a remote site and a local site via a communication link. 通信リンクがネットワークであることを特徴とする、請求項1ないし13のいずれか1項に記載のシステム。   14. The system according to claim 1, wherein the communication link is a network. − ローカルサイトから物理的に離れている遠隔サイトにおいて位置と方向を特定する過程と、
− 該特定された位置と方向に従って、ローカルサイトに位置するカメラ(19)の位置決定及び方向付けを行う過程と、
− 該カメラから画像を取得する過程と、
− 図形を生成する過程と、
− 前記画像、前記図形、及び前記特定された位置と方向に基づいて合成強化現実画像を生成する過程と、
− 合成強化現実画像を含むビューを表示する過程と
を含む、ローカルサイトで取得した画像に図形情報を重ねたものを含む強化現実ビューを遠隔地で表示する方法。
-Determining the location and orientation at a remote site physically separated from the local site;
-Locating and orienting the camera (19) located at the local site according to the specified location and orientation;
-Obtaining an image from the camera;
-Generating the figure;
-Generating a composite augmented reality image based on the image, the graphic, and the specified position and orientation;
Displaying a view including the synthetic augmented reality image at a remote location, the method including a step of displaying the view including the synthetic augmented reality image.
前記位置と方向を特定する過程が、遠隔サイトに位置する可動装置(5)の位置と方向を決定することを含み、カメラの位置と方向を可動装置(5)の位置と方向に基づいて決定する、請求項15に記載の方法。   The step of determining the position and direction includes determining the position and direction of a mobile device (5) located at a remote site, and determining the position and direction of the camera based on the position and direction of the mobile device (5). The method of claim 15, wherein 可動装置が遠隔表示装置(5)であり、前記合成強化現実画像を含むビューを該遠隔表示装置に表示する、請求項16に記載の方法。   17. The method according to claim 16, wherein the mobile device is a remote display (5) and displays a view including the synthetic augmented reality image on the remote display. ロボット(17)の動きを制御することと、可動装置(5)の位置と方向に従って該ロボットにカメラ(19)を搭載することとを含む、請求項15ないし17のいずれか1項に記載の方法。   18. The method according to any one of claims 15 to 17, comprising controlling the movement of the robot (17) and mounting a camera (19) on the robot according to the position and orientation of the mobile device (5). Method. 表示するべき図形に関するデータを取得する過程と、該データに基づいて図形を生成する過程とを含む、請求項15ないし18のいずれか1項に記載の方法。   The method according to any one of claims 15 to 18, comprising a step of obtaining data relating to a graphic to be displayed, and a step of generating a graphic based on the data. 指示装置(13)の位置に関する情報を受信する過程と、該指示装置(13)の位置に基づいて指示部材が現在指し示している地点を表す図形を生成する過程とを含む、請求項15ないし19のいずれか1項に記載の方法。   20. Receiving information on the position of the pointing device (13) and generating a graphic representing the point currently pointed to by the pointing member based on the position of the pointing device (13). The method according to any one of claims 1 to 4. ローカルサイトにおける位置と方向を特定する過程と、ローカルサイトの環境と併せて、ローカルサイトにおいて特定された位置と方向に基づいて該環境に投影された状態で、生成された図形を表示する過程とを含む、請求項15ないし20のいずれか1項に記載の方法。   Specifying the position and direction at the local site, and displaying the generated graphic in a state of being projected on the environment based on the position and direction specified at the local site, together with the environment of the local site. 21. The method according to any one of claims 15 to 20, comprising: ローカルサイトにおける位置と方向を特定する過程が、ローカルサイトに位置する前記第2可動装置(26)の位置と方向を決定する過程を含む、請求項21に記載の方法。   22. The method of claim 21, wherein determining the location and orientation at the local site comprises determining the location and orientation of the second mobile device (26) located at the local site. 第2可動装置がローカル表示装置(26)であり、ローカルサイトの環境と図形とを含む前記第2ビューを該ローカル表示装置に表示する、請求項22に記載の方法。   23. The method of claim 22, wherein the second mobile device is a local display (26), and the second view including the local site environment and graphics is displayed on the local display. 第2可動装置(26)に対して固定に配置した第2カメラ(28)から画像を取得する過程と、該第2カメラ(28)からの画像に生成された図形を登録することにより合成強化現実画像を提供する過程と、該合成強化現実画像を含むビューをローカル表示装置(26)に表示する過程とを含む、請求項22又は23に記載の方法。   Step of acquiring an image from a second camera (28) fixedly arranged with respect to the second movable device (26), and synthesizing by registering a figure generated in the image from the second camera (28) 24. The method according to claim 22 or 23, comprising providing a real image and displaying a view including the composite augmented reality image on a local display (26). 第2図形を生成する過程と、ローカルサイトの環境と、特定した位置と方向に基づいて該環境に第2図形を投射したものとを含む第2ビューを表示する過程とを含む、請求項21ないし24のいずれか1項に記載の方法。   22. The method of claim 21, further comprising: generating a second graphic; and displaying a second view including an environment of the local site and a projection of the second graphic on the environment based on the specified position and orientation. 25. The method according to any one of claims 24. ローカル図形表示を生成する過程と、遠隔図形表示を生成する過程と、ローカル及び遠隔図形表示をローカルサイトと遠隔サイト間で転送する過程と、ローカル及び遠隔図形表示に基づいて前記第1図形を生成する過程と、ローカル及び遠隔図形表示に基づいて前記第2図形を生成する過程とを含む、請求項25に記載の方法。   Generating a local graphic display, generating a remote graphic display, transferring the local and remote graphic displays between a local site and a remote site, and generating the first graphic based on the local and remote graphic displays 26. The method of claim 25, comprising: generating the second graphic based on local and remote graphic displays. 遠隔サイトに表示するビューには、ローカルサイトの環境に、遠隔サイトにおいて特定した位置と方向に基づく視角から見た図形を重ねたものを含め、ローカルサイトに表示するビューには、ローカルサイトの環境には、ローカルサイトにおいて特定した位置と方向に基づく視角から見た図形を重ねたものを含める、請求項21ないし26に記載の方法。   The view displayed on the remote site includes the environment of the local site overlaid with the figure viewed from the viewing angle based on the position and direction specified at the remote site.The view displayed on the local site includes the environment of the local site. 27. The method of claims 21 to 26, wherein the method includes superimposing a figure viewed from a viewing angle based on the position and direction specified at the local site. コンピュータの内蔵メモリに直接ロードすることができるコンピュータプログラム製品であって、該製品がコンピュータ上で実行されると、請求項15ないし27のいずれか1項に記載の過程を行うためのソフトウェアコード部を含むコンピュータプログラム製品。   28. A computer program product that can be loaded directly into a computer's internal memory, the software code portion for performing the process of any one of claims 15 to 27 when the product is executed on a computer. Computer program products, including: プログラムを記録したコンピュータで読取可能な媒体であって、該プログラムがコンピュータ上で実行されると、請求項15ないし27のいずれか1項に記載の過程を行わせるコンピュータで読取可能な媒体。   28. A computer-readable medium having a program recorded thereon, wherein the computer-readable medium, when executed on a computer, causes the computer to perform the process according to any one of claims 15 to 27. 請求項1ないし14のいずれか1項に記載のシステムを、工業ロボットの遠隔プログラミングに使用する方法。   A method of using the system according to any one of claims 1 to 14 for remote programming of an industrial robot. 表示部材(64)とカメラ(8)を備える手持ち型表示装置(62)を備えることを特徴とする、請求項11ないし14のいずれか1項に記載のシステム。   The system according to any one of claims 11 to 14, characterized in that it comprises a hand-held display (62) comprising a display member (64) and a camera (8). 手持ち型表示装置は、ユーザがディスプレイを通して直接見ているかのような印象を持つように構成されることを特徴とする、請求項31に記載のシステム。   The system of claim 31, wherein the hand-held display device is configured to give an impression as if the user was looking directly through the display. 請求項1ないし13のいずれか1項に記載のシステムを塗装に使用する方法。   A method of using the system according to any one of claims 1 to 13 for painting.
JP2004000708A 2002-12-30 2004-01-05 Toughened reality system and method Pending JP2004213673A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0203908A SE0203908D0 (en) 2002-12-30 2002-12-30 An augmented reality system and method

Publications (1)

Publication Number Publication Date
JP2004213673A true JP2004213673A (en) 2004-07-29

Family

ID=20290053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004000708A Pending JP2004213673A (en) 2002-12-30 2004-01-05 Toughened reality system and method

Country Status (4)

Country Link
US (1) US7714895B2 (en)
EP (1) EP1435737A1 (en)
JP (1) JP2004213673A (en)
SE (1) SE0203908D0 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209664A (en) * 2005-01-31 2006-08-10 Canon Inc System, image processor and image processing method
WO2011080882A1 (en) * 2009-12-28 2011-07-07 パナソニック株式会社 Operating space presentation device, operating space presentation method, and program
JP2012043435A (en) * 2010-08-18 2012-03-01 Pantech Co Ltd Augmented reality service sharing method, and user terminal, remote terminal and system used for sharing augmented reality service
JP2013527040A (en) * 2010-05-26 2013-06-27 ザ・ボーイング・カンパニー Method and system for placing inspection sensors
JP2016035742A (en) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program
JP2016205974A (en) * 2015-04-21 2016-12-08 株式会社ミツトヨ Measuring system and user interface device
JP2017062720A (en) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
JP2018176342A (en) * 2017-04-11 2018-11-15 川崎重工業株式会社 Robot system and method for operation thereof
JP2019038075A (en) * 2017-08-25 2019-03-14 ファナック株式会社 Robot system
JP2020073872A (en) * 2019-09-04 2020-05-14 株式会社ミツトヨ Control system
WO2020203139A1 (en) 2019-03-29 2020-10-08 ソニー株式会社 Control device and master-slave system
WO2021261411A1 (en) * 2020-06-23 2021-12-30 川崎重工業株式会社 Robot teaching method and robot working method
WO2022209578A1 (en) * 2021-03-31 2022-10-06 Johnan株式会社 Robot control system and control device

Families Citing this family (244)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US7046214B2 (en) * 2003-12-17 2006-05-16 Information Decision Technologies, Llc Method and system for accomplishing a scalable, multi-user, extended range, distributed, augmented reality environment
NO317898B1 (en) * 2002-05-24 2004-12-27 Abb Research Ltd Procedure and system for programming an industrial robot
SE525108C2 (en) * 2002-12-30 2004-11-30 Abb Research Ltd Method and system for programming an industrial robot, computer program product, computer-readable medium and use
US11033821B2 (en) 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
SE526119C2 (en) * 2003-11-24 2005-07-05 Abb Research Ltd Method and system for programming an industrial robot
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
KR100590549B1 (en) * 2004-03-12 2006-06-19 삼성전자주식회사 Remote control method for robot using 3-dimensional pointing method and robot control system thereof
EP1686554A3 (en) * 2005-01-31 2008-06-18 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
DE102005009437A1 (en) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Method and device for fading AR objects
JP4738870B2 (en) * 2005-04-08 2011-08-03 キヤノン株式会社 Information processing method, information processing apparatus, and remote mixed reality sharing apparatus
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP4933164B2 (en) * 2005-07-01 2012-05-16 キヤノン株式会社 Information processing apparatus, information processing method, program, and storage medium
FR2889761A1 (en) * 2005-08-09 2007-02-16 Total Immersion Sa SYSTEM FOR USER TO LOCATE A CAMERA FOR QUICKLY ADJUSTED INSERTION OF VIRTUAL IMAGE IMAGES IN VIDEO IMAGES OF CAMERA-CAPTURED ACTUAL ELEMENTS
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
DE102006022483A1 (en) * 2006-05-13 2007-11-29 Kuka Roboter Gmbh Method and device for displaying a robot path for supporting a change of location of a support point
CA2654971A1 (en) * 2006-06-09 2007-12-13 Ion Geophysical Corporation Heads-up navigation for seismic data acquisition
EP2037794B1 (en) 2006-06-13 2021-10-27 Intuitive Surgical Operations, Inc. Minimally invasive surgical system
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP5228307B2 (en) 2006-10-16 2013-07-03 ソニー株式会社 Display device and display method
ES2300204B1 (en) * 2006-11-16 2009-05-01 The Movie Virtual, S.L. SYSTEM AND METHOD FOR THE DISPLAY OF AN INCREASED IMAGE APPLYING INCREASED REALITY TECHNIQUES.
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
NO327577B1 (en) * 2007-07-31 2009-08-24 Kongsberg Defence & Aerospace Close-up observation sensor with tracking and weapon station template determination
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
US8769437B2 (en) * 2007-12-12 2014-07-01 Nokia Corporation Method, apparatus and computer program product for displaying virtual media items in a visual media
US8485038B2 (en) * 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
US8838489B2 (en) 2007-12-27 2014-09-16 Amazon Technologies, Inc. On-demand generating E-book content with advertising
GB2456802A (en) * 2008-01-24 2009-07-29 Areograph Ltd Image capture and motion picture generation using both motion camera and scene scanning imaging systems
JP2009237878A (en) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program
DE102008020772A1 (en) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Presentation of results of a measurement of workpieces
DE102008021160A1 (en) * 2008-04-28 2009-10-29 Beckhoff Automation Gmbh remote control
JPWO2009151130A1 (en) * 2008-06-10 2011-11-17 株式会社三和機工 Experience-based stereoscopic virtual reality space system
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US20100013738A1 (en) * 2008-07-15 2010-01-21 Edward Covannon Image capture and display configuration
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
US8817092B2 (en) * 2008-11-25 2014-08-26 Stuart Leslie Wilkinson Method and apparatus for generating and viewing combined images
KR101590331B1 (en) * 2009-01-20 2016-02-01 삼성전자 주식회사 Mobile display apparatus robot have mobile display apparatus and display method thereof
US8970690B2 (en) 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
US20100259619A1 (en) * 2009-04-10 2010-10-14 Nicholson Timothy J Hmd with elevated camera
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8473101B2 (en) * 2009-08-21 2013-06-25 Harris Corporation Coordinated action robotic system and related methods
WO2011025450A1 (en) * 2009-08-25 2011-03-03 Xmreality Research Ab Methods and systems for visual interaction
US8542267B1 (en) * 2009-10-01 2013-09-24 Hewlett-Packard Development Company, L.P. Calibrating a visual-collaborative system
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
JP5709906B2 (en) 2010-02-24 2015-04-30 アイピープレックス ホールディングス コーポレーション Augmented reality panorama for the visually impaired
KR20110116525A (en) * 2010-04-19 2011-10-26 엘지전자 주식회사 Image display device and operating method for the same
US9858475B2 (en) 2010-05-14 2018-01-02 Intuitive Surgical Operations, Inc. Method and system of hand segmentation and overlay using depth data
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
KR101909742B1 (en) 2010-06-15 2018-10-18 티켓마스터 엘엘씨 Methods and systems for computer aided event and venue setup and modeling and interactive maps
US9781170B2 (en) 2010-06-15 2017-10-03 Live Nation Entertainment, Inc. Establishing communication links using routing protocols
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US8559030B2 (en) 2010-07-27 2013-10-15 Xerox Corporation Augmented reality system and method for device management and service
US10026227B2 (en) 2010-09-02 2018-07-17 The Boeing Company Portable augmented reality
US8902254B1 (en) 2010-09-02 2014-12-02 The Boeing Company Portable augmented reality
JP4991023B2 (en) * 2010-11-12 2012-08-01 パナソニック株式会社 Moving path search device and moving path search method
US9264515B2 (en) 2010-12-22 2016-02-16 Intel Corporation Techniques for mobile augmented reality applications
US8922645B1 (en) * 2010-12-22 2014-12-30 Google Inc. Environmental reproduction system for representing an environment using one or more environmental sensors
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US8751063B2 (en) 2011-01-05 2014-06-10 Orbotix, Inc. Orienting a user interface of a controller for operating a self-propelled device
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9113050B2 (en) * 2011-01-13 2015-08-18 The Boeing Company Augmented collaboration system
US8918214B2 (en) * 2011-01-19 2014-12-23 Harris Corporation Telematic interface with directional translation
US8918215B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
KR101329935B1 (en) * 2011-01-27 2013-11-14 주식회사 팬택 Augmented reality system and method that share augmented reality service to remote using different marker
KR101292463B1 (en) * 2011-01-27 2013-07-31 주식회사 팬택 Augmented reality system and method that share augmented reality service to remote
CN102147658B (en) * 2011-02-12 2013-01-09 华为终端有限公司 Method and device for realizing interaction of augment reality (AR) and mobile terminal
US9205555B2 (en) 2011-03-22 2015-12-08 Harris Corporation Manipulator joint-limit handling algorithm
US9071709B2 (en) 2011-03-31 2015-06-30 Nokia Technologies Oy Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
KR20140053885A (en) * 2011-04-18 2014-05-08 아이시360, 인코포레이티드 Apparatus and method for panoramic video imaging with mobile computing devices
US20170028557A1 (en) 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
US8694134B2 (en) 2011-05-05 2014-04-08 Harris Corporation Remote control interface
WO2012154938A1 (en) 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8639386B2 (en) 2011-05-20 2014-01-28 Harris Corporation Haptic device for manipulator and vehicle control
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
WO2012166814A1 (en) * 2011-05-31 2012-12-06 Honda Motor Co., Ltd. Online environment mapping
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US9026250B2 (en) 2011-08-17 2015-05-05 Harris Corporation Haptic manipulation system for wheelchairs
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9606992B2 (en) 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9128520B2 (en) 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
US8996244B2 (en) 2011-10-06 2015-03-31 Harris Corporation Improvised explosive device defeat system
KR101941844B1 (en) 2012-01-10 2019-04-11 삼성전자주식회사 Robot and Control method thereof
JP5516610B2 (en) * 2012-01-19 2014-06-11 株式会社安川電機 Robot, robot hand, and holding position adjustment method of robot hand
US9525964B2 (en) 2012-02-02 2016-12-20 Nokia Technologies Oy Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
KR101978740B1 (en) 2012-02-15 2019-05-15 삼성전자주식회사 Tele-operation system and control method thereof
US8749634B2 (en) * 2012-03-01 2014-06-10 H4 Engineering, Inc. Apparatus and method for automatic video recording
WO2013141862A1 (en) 2012-03-22 2013-09-26 Empire Technology Development Llc Augmented reality process for sorting materials
JPWO2013145614A1 (en) * 2012-03-27 2015-12-10 パナソニックIpマネジメント株式会社 Information processing apparatus, server apparatus, information processing method, and program
US9280717B2 (en) 2012-05-14 2016-03-08 Sphero, Inc. Operating a computing device by detecting rounded objects in an image
US9827487B2 (en) * 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
US20130321245A1 (en) * 2012-06-04 2013-12-05 Fluor Technologies Corporation Mobile device for monitoring and controlling facility systems
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
ITTV20120139A1 (en) * 2012-07-25 2014-01-26 Isis S R L METHOD FOR THE CONTROL AND ACTIVATION OF A CONTEXTUAL USER INTERFACE AND DEVICE AND PLANT WITH THIS METHOD AND INTERFACE
US9245428B2 (en) * 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US20150193977A1 (en) * 2012-08-31 2015-07-09 Google Inc. Self-Describing Three-Dimensional (3D) Object Recognition and Control Descriptors for Augmented Reality Interfaces
US9025856B2 (en) 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
US10620902B2 (en) * 2012-09-28 2020-04-14 Nokia Technologies Oy Method and apparatus for providing an indication regarding content presented to another user
US8954195B2 (en) 2012-11-09 2015-02-10 Harris Corporation Hybrid gesture control haptic system
WO2014084858A1 (en) * 2012-11-30 2014-06-05 Empire Technology Development Llc Energy savings using augmented reality
US20140181678A1 (en) * 2012-12-20 2014-06-26 Sigal Louchheim Interactive augmented reality system, devices and methods using the same
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
CN104919518B (en) * 2013-01-24 2017-12-08 索尼公司 Image display, method for displaying image and image display system
US8965620B2 (en) 2013-02-07 2015-02-24 Harris Corporation Systems and methods for controlling movement of unmanned vehicles
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US20140253574A1 (en) * 2013-03-05 2014-09-11 Research In Motion Limited Development Environment For Capture Of Image Data From A Mobile Device
US9158518B2 (en) 2013-03-11 2015-10-13 Blackberry Limited Collaborative application development environment using a connected device
US9779517B2 (en) * 2013-03-15 2017-10-03 Upskill, Inc. Method and system for representing and interacting with augmented reality content
US9773264B2 (en) 2013-03-26 2017-09-26 Blackberry Limited Method for providing composite user interface controls and an online storefront for same
JP5796726B2 (en) * 2013-03-29 2015-10-21 コニカミノルタ株式会社 Job information display device
US20140320529A1 (en) * 2013-04-26 2014-10-30 Palo Alto Research Center Incorporated View steering in a combined virtual augmented reality system
US9258521B2 (en) 2013-05-06 2016-02-09 Globalfoundries Inc. Real-time advisor system with projected augmentable annotations
US9904356B2 (en) * 2013-05-28 2018-02-27 The Boeing Company Tracking a user to support tasks performed on complex-system components
US9395810B2 (en) * 2013-05-28 2016-07-19 The Boeing Company Ubiquitous natural user system
US9645652B2 (en) * 2013-05-28 2017-05-09 The Boeing Company Ubiquitous natural user system for human-machine interaction
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
AU2014334669A1 (en) * 2013-10-15 2016-05-05 Sphero, Inc. Interactive augmented reality using a self-propelled device
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
WO2015066037A1 (en) * 2013-10-28 2015-05-07 Brown University Virtual reality methods and systems
CN105792996B (en) * 2013-11-28 2017-07-25 三菱电机株式会社 The control method of robot system and robot system
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US9128507B2 (en) 2013-12-30 2015-09-08 Harris Corporation Compact haptic interface
JP5850958B2 (en) * 2014-01-24 2016-02-03 ファナック株式会社 Robot programming device for creating a robot program for imaging a workpiece
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
US9613448B1 (en) 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
EP3145385A4 (en) * 2014-05-22 2018-02-14 Invuity, Inc. Medical device featuring cladded waveguide
US10269132B2 (en) 2014-07-31 2019-04-23 Sony Corporation Displaying images according to head posture and camera posture
US10509865B2 (en) 2014-09-18 2019-12-17 Google Llc Dress form for three-dimensional drawing inside virtual reality environment
WO2016077506A1 (en) 2014-11-11 2016-05-19 Bent Image Lab, Llc Accurate positioning of augmented reality content
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
US10773329B2 (en) 2015-01-20 2020-09-15 Illinois Tool Works Inc. Multiple input welding vision system
CA2973065C (en) * 2015-02-13 2019-07-23 Halliburton Energy Services, Inc. Using augmented reality to collect, process and share information
US10448692B2 (en) 2015-03-06 2019-10-22 Illinois Tool Works Inc. Sensor assisted head mounted displays for welding
EP3268949B1 (en) 2015-03-09 2021-05-26 Illinois Tool Works Inc. Methods and apparatus to provide visual information associated with welding operations
US9666160B2 (en) * 2015-03-26 2017-05-30 Illinois Tool Works Inc. Control of mediated reality welding system based on lighting conditions
US9977242B2 (en) 2015-03-26 2018-05-22 Illinois Tool Works Inc. Control of mediated reality welding system based on lighting conditions
US10007413B2 (en) 2015-04-27 2018-06-26 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
US9713871B2 (en) 2015-04-27 2017-07-25 Microsoft Technology Licensing, Llc Enhanced configuration and control of robots
DE102015211515A1 (en) * 2015-06-23 2016-12-29 Siemens Aktiengesellschaft Interaction system
US10363632B2 (en) 2015-06-24 2019-07-30 Illinois Tool Works Inc. Time of flight camera for welding machine vision
EP3112965A1 (en) * 2015-07-02 2017-01-04 Accenture Global Services Limited Robotic process automation
US9919427B1 (en) 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US20170028549A1 (en) * 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
DE102015017296B3 (en) 2015-08-14 2021-10-07 Franka Emika Gmbh Robotic system
US10454943B2 (en) 2015-08-17 2019-10-22 The Toronto-Dominion Bank Augmented and virtual reality based process oversight
DE102015012961B4 (en) * 2015-10-08 2022-05-05 Kastanienbaum GmbH robotic system
DE102015012962A1 (en) * 2015-10-08 2017-04-13 Sami Haddadin robot system
DE102015012959B4 (en) 2015-10-08 2019-01-17 Franka Emika Gmbh Robot system and method for controlling a robot system
US10146194B2 (en) * 2015-10-14 2018-12-04 Hand Held Products, Inc. Building lighting and temperature control with an augmented reality system
WO2017066801A1 (en) 2015-10-16 2017-04-20 Bent Image Lab, Llc Augmented reality platform
CN105491416B (en) * 2015-11-25 2020-03-03 腾讯科技(深圳)有限公司 Augmented reality information transmission method and device
US10099374B2 (en) * 2015-12-01 2018-10-16 Bragi GmbH Robotic safety using wearables
JP6420229B2 (en) 2015-12-10 2018-11-07 ファナック株式会社 A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
US10244211B2 (en) 2016-02-29 2019-03-26 Microsoft Technology Licensing, Llc Immersive interactive telepresence
WO2017165705A1 (en) 2016-03-23 2017-09-28 Bent Image Lab, Llc Augmented reality for the internet of things
GB2549264B (en) * 2016-04-06 2020-09-23 Rolls Royce Power Eng Plc Apparatus, methods, computer programs, and non-transitory computer readable storage mediums for enabling remote control of one or more devices
DE102016004787B4 (en) 2016-04-20 2023-02-02 Franka Emika Gmbh Driving device for a robot and method for its manufacture
DE102016004788A1 (en) 2016-04-20 2017-10-26 Kastanienbaum GmbH Method for producing a robot and device for carrying out this method
US10168688B2 (en) * 2016-04-29 2019-01-01 Taylor BRUSKY Systems and methods for implementing a pointer-guided tracking system and a pointer-guided mechanical movable device control system
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
ES2749686T3 (en) * 2016-06-24 2020-03-23 Zuend Systemtechnik Ag Material cutting system to be cut
CN106128212B (en) * 2016-08-27 2019-02-12 大连新锐天地传媒有限公司 Learning calligraphy system and method based on augmented reality
CN106383578B (en) * 2016-09-13 2020-02-04 网易(杭州)网络有限公司 Virtual reality system, virtual reality interaction device and method
US10950049B1 (en) * 2016-09-30 2021-03-16 Amazon Technologies, Inc. Augmenting transmitted video data
US10943396B1 (en) 2016-09-30 2021-03-09 Amazon Technologies, Inc. Synchronizing transmitted video data and enhancements
US11295525B1 (en) 2016-09-30 2022-04-05 Amazon Technologies, Inc. Augmenting transmitted video data
US10571902B2 (en) * 2016-10-12 2020-02-25 Sisu Devices Llc Robotic programming and motion control
CN106569671A (en) * 2016-11-09 2017-04-19 唐雪松 AR technology-based method and device for displaying instruction information of consumer goods
US9805306B1 (en) 2016-11-23 2017-10-31 Accenture Global Solutions Limited Cognitive robotics analyzer
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10979676B1 (en) 2017-02-27 2021-04-13 Amazon Technologies, Inc. Adjusting the presented field of view in transmitted data
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US10646994B2 (en) * 2017-04-25 2020-05-12 At&T Intellectual Property I, L.P. Robot virtualization leveraging Geo analytics and augmented reality
US10864633B2 (en) * 2017-04-28 2020-12-15 Southe Autonomy Works, Llc Automated personalized feedback for interactive learning applications
US11093752B2 (en) * 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US20180357922A1 (en) 2017-06-08 2018-12-13 Honeywell International Inc. Apparatus and method for assessing and tracking user competency in augmented/virtual reality-based training in industrial automation systems and other systems
JP6506348B2 (en) * 2017-06-14 2019-04-24 ファナック株式会社 Robot teaching device to correct robot's trajectory
US10304251B2 (en) 2017-06-15 2019-05-28 Microsoft Technology Licensing, Llc Virtually representing spaces and objects while maintaining physical properties
NO342793B1 (en) * 2017-06-20 2018-08-06 Augmenti As Augmented reality system and method of displaying an augmented reality image
US10235192B2 (en) 2017-06-23 2019-03-19 Accenture Global Solutions Limited Self-learning robotic process automation
TWI639960B (en) * 2017-06-27 2018-11-01 行政院原子能委員會核能硏究所 Augmented reality system and method thereof
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US10304239B2 (en) 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US10623453B2 (en) * 2017-07-25 2020-04-14 Unity IPR ApS System and method for device synchronization in augmented reality
US10970930B1 (en) 2017-08-07 2021-04-06 Amazon Technologies, Inc. Alignment and concurrent presentation of guide device video and enhancements
WO2019046559A1 (en) * 2017-08-30 2019-03-07 Linkedwyz Using augmented reality for controlling intelligent devices
US10970545B1 (en) 2017-08-31 2021-04-06 Amazon Technologies, Inc. Generating and surfacing augmented reality signals for associated physical items
US10339931B2 (en) 2017-10-04 2019-07-02 The Toronto-Dominion Bank Persona-based conversational interface personalization using social network preferences
US10460748B2 (en) 2017-10-04 2019-10-29 The Toronto-Dominion Bank Conversational interface determining lexical personality score for response generation with synonym replacement
KR102082433B1 (en) * 2017-10-19 2020-02-27 한국과학기술연구원 Remote collaboration system with projector-camera based robot device and head mounted display and remote interaction method using the same
DE102017219067A1 (en) * 2017-10-25 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft DEVICE AND METHOD FOR THE VISUAL SUPPORT OF A USER IN A WORKING ENVIRONMENT
US11472598B1 (en) 2017-11-16 2022-10-18 Amazon Technologies, Inc. Systems and methods to encode sounds in association with containers
US10878838B1 (en) 2017-11-16 2020-12-29 Amazon Technologies, Inc. Systems and methods to trigger actions based on encoded sounds associated with containers
US10713840B2 (en) * 2017-12-22 2020-07-14 Sony Interactive Entertainment Inc. Space capture, modeling, and texture reconstruction through dynamic camera positioning and lighting using a mobile robot
US10751877B2 (en) 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality
US11010975B1 (en) 2018-03-06 2021-05-18 Velan Studios, Inc. Remote camera augmented reality system
DE102018204508A1 (en) * 2018-03-23 2019-09-26 Kuka Deutschland Gmbh Method and system for operating a robot
US10248981B1 (en) * 2018-04-10 2019-04-02 Prisma Systems Corporation Platform and acquisition system for generating and maintaining digital product visuals
JP6826069B2 (en) * 2018-04-18 2021-02-03 ファナック株式会社 Robot motion teaching device, robot system and robot control device
US20190346842A1 (en) * 2018-05-11 2019-11-14 Honeywell International Inc. Transferring annotations to images captured by remote vehicles between displays
US11429086B1 (en) 2018-05-31 2022-08-30 Amazon Technologies, Inc. Modifying functions of computing devices based on environment
DE102018113336A1 (en) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH A method of using a machine to set an augmented reality display environment
JP6773084B2 (en) * 2018-07-02 2020-10-21 株式会社安川電機 Motion teaching device, robot system and motion teaching method
WO2020014495A1 (en) * 2018-07-13 2020-01-16 Irobot Corporation Mobile robot cleaning system
US11094127B2 (en) * 2018-09-25 2021-08-17 Magic Leap, Inc. Systems and methods for presenting perspective views of augmented reality virtual object
EP3864629A4 (en) 2018-10-08 2022-07-27 McGinley Education Innovations, LLC Augmented reality based real-time ultrasonography image rendering for surgical assistance
CN113412479A (en) * 2019-02-06 2021-09-17 麦克赛尔株式会社 Mixed reality display device and mixed reality display method
US11521512B2 (en) 2019-02-19 2022-12-06 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11450233B2 (en) 2019-02-19 2022-09-20 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11252392B2 (en) * 2019-02-22 2022-02-15 Avalon Holographies Inc. Layered scene decomposition CODEC with layered depth imaging
JP7359577B2 (en) * 2019-06-21 2023-10-11 ファナック株式会社 Robot teaching device and robot system
US11159766B2 (en) 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
US11958183B2 (en) * 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
US11721231B2 (en) 2019-11-25 2023-08-08 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
US11322037B2 (en) 2019-11-25 2022-05-03 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
KR20210072463A (en) 2019-12-09 2021-06-17 한국전자통신연구원 Method of human-machine interaction, and device for the same
US11529737B2 (en) 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
WO2021220915A1 (en) * 2020-04-27 2021-11-04 ファナック株式会社 Display device for industrial machine
US11774954B2 (en) * 2020-12-02 2023-10-03 Westinghouse Electric Company Llc Systems and methods for wireless remote control of automated equipment
WO2022124398A1 (en) * 2020-12-10 2022-06-16 三菱電機株式会社 Remote control manipulator system and remote control assistance system

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
US5155683A (en) * 1991-04-11 1992-10-13 Wadiatur Rahim Vehicle remote guidance with path control
JPH06134687A (en) 1992-10-23 1994-05-17 Mitsubishi Heavy Ind Ltd Remote control device of mobile robot
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US6690338B1 (en) * 1993-08-23 2004-02-10 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US6768563B1 (en) * 1995-02-24 2004-07-27 Canon Kabushiki Kaisha Image input system
JPH08257948A (en) 1995-03-20 1996-10-08 Yaskawa Electric Corp Remote control device for robot
US6535210B1 (en) * 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US5706195A (en) * 1995-09-05 1998-01-06 General Electric Company Augmented reality maintenance system for multiple rovs
US5825982A (en) * 1995-09-15 1998-10-20 Wright; James Head cursor control interface for an automated endoscope system for optimal positioning
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
JPH11309269A (en) 1998-04-27 1999-11-09 Sony Corp Game device, simulation apparatus and game imade display method
US20020097322A1 (en) * 2000-11-29 2002-07-25 Monroe David A. Multiple video display configurations and remote control of multiple video signals transmitted to a monitoring station over a network
WO2000052540A1 (en) * 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Augmented reality system using mobile devices
US7324081B2 (en) * 1999-03-02 2008-01-29 Siemens Aktiengesellschaft Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus
US6781606B2 (en) * 1999-05-20 2004-08-24 Hewlett-Packard Development Company, L.P. System and method for displaying images using foveal video
DE19953739C2 (en) * 1999-11-09 2001-10-11 Siemens Ag Device and method for object-oriented marking and assignment of information to selected technological components
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
CA2407992C (en) * 2000-05-01 2010-07-20 Irobot Corporation Method and system for remote control of mobile robot
EP1356413A2 (en) * 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
JP2002247602A (en) 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc Image generator and control method therefor, and its computer program
JP4649050B2 (en) * 2001-03-13 2011-03-09 キヤノン株式会社 Image processing apparatus, image processing method, and control program
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
NO317898B1 (en) * 2002-05-24 2004-12-27 Abb Research Ltd Procedure and system for programming an industrial robot
SE525108C2 (en) * 2002-12-30 2004-11-30 Abb Research Ltd Method and system for programming an industrial robot, computer program product, computer-readable medium and use
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
SE526119C2 (en) * 2003-11-24 2005-07-05 Abb Research Ltd Method and system for programming an industrial robot
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209664A (en) * 2005-01-31 2006-08-10 Canon Inc System, image processor and image processing method
JP4553362B2 (en) * 2005-01-31 2010-09-29 キヤノン株式会社 System, image processing apparatus, and information processing method
WO2011080882A1 (en) * 2009-12-28 2011-07-07 パナソニック株式会社 Operating space presentation device, operating space presentation method, and program
JP4850984B2 (en) * 2009-12-28 2012-01-11 パナソニック株式会社 Action space presentation device, action space presentation method, and program
US8731276B2 (en) 2009-12-28 2014-05-20 Panasonic Corporation Motion space presentation device and motion space presentation method
JP2013527040A (en) * 2010-05-26 2013-06-27 ザ・ボーイング・カンパニー Method and system for placing inspection sensors
JP2012043435A (en) * 2010-08-18 2012-03-01 Pantech Co Ltd Augmented reality service sharing method, and user terminal, remote terminal and system used for sharing augmented reality service
JP2016035742A (en) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 Information processing system, control method of the same, and program, and information processing apparatus, control method of the same, and program
JP2016205974A (en) * 2015-04-21 2016-12-08 株式会社ミツトヨ Measuring system and user interface device
JP2017062720A (en) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
JP2018176342A (en) * 2017-04-11 2018-11-15 川崎重工業株式会社 Robot system and method for operation thereof
JP2019038075A (en) * 2017-08-25 2019-03-14 ファナック株式会社 Robot system
US10786906B2 (en) 2017-08-25 2020-09-29 Fanuc Corporation Robot system
DE102018213985B4 (en) 2017-08-25 2022-09-29 Fanuc Corporation robotic system
US11565427B2 (en) 2017-08-25 2023-01-31 Fanuc Corporation Robot system
WO2020203139A1 (en) 2019-03-29 2020-10-08 ソニー株式会社 Control device and master-slave system
US11582438B2 (en) 2019-03-29 2023-02-14 Sony Group Corporation Control device and master slave system
JP2020073872A (en) * 2019-09-04 2020-05-14 株式会社ミツトヨ Control system
WO2021261411A1 (en) * 2020-06-23 2021-12-30 川崎重工業株式会社 Robot teaching method and robot working method
JP7366264B2 (en) 2020-06-23 2023-10-20 川崎重工業株式会社 Robot teaching method and robot working method
WO2022209578A1 (en) * 2021-03-31 2022-10-06 Johnan株式会社 Robot control system and control device

Also Published As

Publication number Publication date
SE0203908D0 (en) 2002-12-30
EP1435737A1 (en) 2004-07-07
US20040189675A1 (en) 2004-09-30
US7714895B2 (en) 2010-05-11

Similar Documents

Publication Publication Date Title
JP2004213673A (en) Toughened reality system and method
CA3016539C (en) Image processing method, display device, and inspection system
US10452133B2 (en) Interacting with an environment using a parent device and at least one companion device
JP4817603B2 (en) Method and system for programming an industrial robot
US9415509B2 (en) Robot teach device with 3-D display
Eswaran et al. Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities
US20050149231A1 (en) Method and a system for programming an industrial robot
Buss et al. Development of a multi-modal multi-user telepresence and teleaction system
US7403835B2 (en) Device and method for programming an industrial robot
Pan et al. Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device
Huy et al. See-through and spatial augmented reality-a novel framework for human-robot interaction
JP6598191B2 (en) Image display system and image display method
Ruffaldi et al. Third point of view augmented reality for robot intentions visualization
JP2015229234A (en) Device and method for creating teaching data of working robot
Jo et al. Chili: viewpoint control and on-video drawing for mobile video calls
WO2019120481A1 (en) System and method for determining a transformation representation
Lawson et al. Augmented reality for underground pipe inspection and maintenance
JPH0421105A (en) Stereoscopic teaching device for manipulator
JPH11338532A (en) Teaching device
Guan et al. A novel robot teaching system based on augmented reality
JPH03213278A (en) Remote control support system for robot
JPH1177568A (en) Teaching assisting method and device
EP3502836B1 (en) Method for operating an augmented interactive reality system
JP2001315080A (en) Remote place observation device
CN116569545A (en) Remote assistance method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090818