JP2012135858A - System and method for construction of operating environment model - Google Patents

System and method for construction of operating environment model Download PDF

Info

Publication number
JP2012135858A
JP2012135858A JP2010291772A JP2010291772A JP2012135858A JP 2012135858 A JP2012135858 A JP 2012135858A JP 2010291772 A JP2010291772 A JP 2010291772A JP 2010291772 A JP2010291772 A JP 2010291772A JP 2012135858 A JP2012135858 A JP 2012135858A
Authority
JP
Japan
Prior art keywords
information
geometric
operated
terminal device
work robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010291772A
Other languages
Japanese (ja)
Other versions
JP5659787B2 (en
Inventor
Fumitomo Saito
史倫 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010291772A priority Critical patent/JP5659787B2/en
Publication of JP2012135858A publication Critical patent/JP2012135858A/en
Application granted granted Critical
Publication of JP5659787B2 publication Critical patent/JP5659787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce the burden of modeling an introduction environment for a working robot.SOLUTION: The system 100 for constructing an operating environment model is configured to: generate geometry information indicating geometrical characteristics of an object to be operated by applying a geometric primitive to a three-dimensional image obtained by measuring the object to be operated; obtain position information indicating a space position of the object to be operated that is the generation target of the geometry information; and memorize operation information in association with the generated geometry information and the obtained position information, the operation information indicating operation contents that are to be performed by a working robot to the object to be operated. An operation tag can be set virtually to the object to be operated, thus reducing the burden of modeling an introduction environment for the working robot.

Description

本発明は、操作環境モデル構築システム、および操作環境モデル構築方法に関する。   The present invention relates to an operation environment model construction system and an operation environment model construction method.

様々な環境へロボット技術を適用する試みが従来から為されている。   Attempts have been made to apply robot technology to various environments.

特許文献1には、一般家庭、オフィス、ホテル、店舗及び病院等のヒトが活動を行う生活空間内でロボットに物品の移動作業を実行させるシステムが開示されている。特許文献1では、電子タグを使って物品を識別可能とした状態が予め構築されている(例えば、同文献の段落0029、0066〜0067参照)。作業ロボットによる物品の移動等は、電子タグから得られる情報に基づいて行われる(例えば、同文献の段落0153参照)。特許文献2には、同文献の図14、15に示されているように、操作画面を介して、物品を移動させる手順が開示されている。   Patent Document 1 discloses a system that causes a robot to perform a moving operation of an article in a living space where a person is active such as a general household, office, hotel, store, and hospital. In Patent Document 1, a state in which an article can be identified using an electronic tag is constructed in advance (see, for example, paragraphs 0029 and 0066 to 0067 of the document). The movement of the article by the work robot is performed based on information obtained from the electronic tag (for example, see paragraph 0153 of the same document). Patent Document 2 discloses a procedure for moving an article via an operation screen, as shown in FIGS.

特許文献3には、作業ロボットに対して適切な作業指示を与えることができるロボット作業教示システムが開示されている。同文献の図3に示されているように、対象物の物体モデルを選択し(同文献の段落0027参照)、その後作業モデルを選択している(同文献の段落0028参照)。同文献の図4は、画面例であり、同文献の図5は、作業対象物の種類を指定するアイコンリストであり、同文献の図6は、対象物に対する作業を指定するアイコンリストである。   Patent Document 3 discloses a robot work teaching system capable of giving an appropriate work instruction to a work robot. As shown in FIG. 3 of the document, an object model of an object is selected (see paragraph 0027 of the document), and then a work model is selected (see paragraph 0028 of the document). 4 of the same document is an example of a screen, FIG. 5 of the same document is an icon list for designating the type of work object, and FIG. 6 of the same document is an icon list for designating work for the object. .

特許文献4には、視覚センサを有するロボットの動作をオフラインで疑似的に遂行するロボットシミュレーション装置が開示されている。特許文献5には、指定された素形状モデルを3次元データに対してフィッティングし、この結果に基づいて適切な把持パターンをデータベースから取得することが開示されている(同文献の図2参照)。   Patent Document 4 discloses a robot simulation apparatus that artificially performs an operation of a robot having a visual sensor offline. Patent Document 5 discloses that a specified elementary shape model is fitted to three-dimensional data, and an appropriate gripping pattern is acquired from a database based on the result (see FIG. 2 of the same document). .

特許第3738256号Japanese Patent No. 3738256 特許第3713021号Japanese Patent No. 3713021 特開2008−68348号公報JP 2008-68348 A 特許第4153528号Japanese Patent No. 4153528 特開2009−214212号公報JP 2009-214212 A

作業ロボットが導入される環境を事前にモデル化することが行われる場合がある。端的には、家具、扉等の構造物に対するロボットの操作を円滑化するため、それらのモデル化を事前に行う場合がある。作業ロボットが構造物を操作するためには、その構造物のどの部位をどのように操作すべきかの情報が必要であるためである。   In some cases, the environment in which the work robot is introduced is modeled in advance. In short, in order to facilitate the operation of the robot with respect to structures such as furniture and doors, they may be modeled in advance. This is because in order for the work robot to operate the structure, information on which part of the structure should be operated and how is necessary.

しかしながら、そのような周辺環境をCAD等によって3次元的にモデル化する作業は、専門家をしても手間がかかり、この作業負担を無視することはできない。また、ロボットの導入環境毎にモデル化を行う必要が生じる場合があり、全体的な導入コスト/導入負担は著しいものと成り得る。仮に、ロボット導入後の環境変化(例えば、家具のレイアウト変更、増改築等)があると、適宜、既存の3次元モデルを修正する必要が生じ、メンテナンス負担が増大してしまうおそれもある。   However, the work of modeling such a surrounding environment three-dimensionally by CAD or the like is time-consuming even for an expert, and this work load cannot be ignored. Further, it may be necessary to perform modeling for each robot introduction environment, and the overall introduction cost / introduction burden can be significant. If the environment changes after the introduction of the robot (for example, furniture layout change, extension / renovation, etc.), the existing three-dimensional model needs to be appropriately corrected, and the maintenance burden may increase.

上述の説明から明らかなように、作業ロボットの導入環境のモデル化負担を低減することが強く求められている。   As is clear from the above description, there is a strong demand to reduce the modeling burden of the work robot introduction environment.

本発明に係る操作環境モデル構築システムは、被操作体の計測により得られる立体像に対して幾何プリミティブを適応させて前記被操作体の幾何的特性を示す幾何情報を生成し、前記幾何情報の生成対象である前記被操作体の空間位置を示す位置情報を取得し、前記被操作体に対して作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する。   The operating environment model construction system according to the present invention generates geometric information indicating geometric characteristics of the operated object by adapting geometric primitives to a stereoscopic image obtained by measurement of the operated object, The position information indicating the spatial position of the operation target that is the generation target is acquired, and the operation information indicating the operation content to be performed by the work robot on the operation target is acquired, the generated geometric information and the acquired The position information is stored in association with the position information.

前記被操作体の幾何的特性は、前記立体像に対する複数の前記幾何プリミティブの適応によって表現される、と良い。   The geometric characteristic of the object to be operated may be expressed by adaptation of the plurality of geometric primitives to the stereoscopic image.

前記幾何情報は、前記立体像に対して適応された複数の前記幾何プリミティブの形状を示す情報を含む、と良い。   The geometric information may include information indicating shapes of the plurality of geometric primitives adapted to the stereoscopic image.

前記幾何情報は、前記立体像に対して適応された複数の前記幾何プリミティブの位置を示す情報を含む、と良い。   The geometric information may include information indicating positions of the plurality of geometric primitives adapted to the stereoscopic image.

前記操作情報は、少なくとも前記被操作体の移動方向を示すための情報を含む、と良い。   The operation information preferably includes at least information for indicating a moving direction of the operated object.

前記位置情報の取得及び前記幾何情報の生成は、前記被操作体に対する操作内容のユーザーによる割り当てに応じて実行される、と良い。   The acquisition of the position information and the generation of the geometric information may be executed in accordance with an assignment by a user of operation contents for the object to be operated.

記憶対象となる前記操作情報は、操作内容の類型化に応じて予め用意された複数の操作情報の中からユーザーにより選択された操作情報である、と良い。   The operation information to be stored may be operation information selected by the user from a plurality of operation information prepared in advance according to the type of operation content.

前記被操作体に対して前記幾何プリミティブが適応された状態の画像を生成する、と良い。   It is preferable to generate an image in which the geometric primitive is applied to the object to be operated.

前記操作情報の内容は変更可能に構成されている、と良い。   The content of the operation information is preferably configured to be changeable.

前記被操作体の周囲にある特徴を抽出し、この特徴の空間位置を事前に記憶し、前記特徴を再度抽出し、今回抽出した前記特徴に対して登録済みの前記特徴を空間的にフィッティングし、事前登録された前記特徴に対して相対位置が定められた情報を前記フィッティングの結果に応じた位置に表示する、と良い。   Extracting the features around the object to be operated, storing the spatial positions of the features in advance, extracting the features again, and spatially fitting the registered features to the extracted features It is preferable to display information having a relative position with respect to the pre-registered feature at a position corresponding to the result of the fitting.

上述のいずれか一項に記載の操作環境モデル構築システムは、ユーザーにより持ち運び可能な端末装置と、前記端末装置に対して通信可能に接続されたサーバと、を含み、前記端末装置は、前記位置情報の取得を実行し、前記サーバは、前記幾何情報の生成を実行する、と良い。   The operating environment model construction system according to any one of the above includes a terminal device that can be carried by a user, and a server that is communicably connected to the terminal device, and the terminal device includes the position Information acquisition may be performed, and the server may generate the geometric information.

本発明に係るシステムは、上述の操作環境モデル構築システムと、前記操作環境モデル構築システムに対して通信可能に構成された作業ロボットと、を備えるシステムであって、前記作業ロボットは、前記被操作体の位置を特定するための位置情報を前記サーバに対して送信し、前記サーバは、前記作業ロボットから受信した前記位置情報に対して関連付けられた前記操作情報を前記端末装置に対して送信し、前記端末装置は、前記サーバから送信した前記操作情報に基づいて、前記作業ロボットに対する作業指示の入力を前記ユーザーに対して要求する。   A system according to the present invention is a system including the above-described operation environment model construction system and a work robot configured to be communicable with the operation environment model construction system, wherein the work robot includes the manipulation target Position information for specifying the position of the body is transmitted to the server, and the server transmits the operation information associated with the position information received from the work robot to the terminal device. The terminal device requests the user to input a work instruction to the work robot based on the operation information transmitted from the server.

本発明に係る操作環境モデルの構築方法は、システムは、被操作体の計測により得られる立体像に対して幾何プリミティブを適応させて前記被操作体の幾何的特性を示す幾何情報を生成し、前記システムは、前記幾何情報の生成の被対象物である前記被操作体の空間位置を示す位置情報を取得し、前記システムは、作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する。   In the operation environment model construction method according to the present invention, the system generates geometric information indicating the geometric characteristics of the operated object by adapting a geometric primitive to a stereoscopic image obtained by measurement of the operated object. The system acquires position information indicating a spatial position of the object to be operated, which is an object for generating the geometric information, and the system generates operation information indicating an operation content to be performed by a work robot. The geometric information and the acquired position information are stored in association with each other.

本発明によれば、作業ロボットの導入環境のモデル化負担を低減することが可能になる。   According to the present invention, it is possible to reduce the modeling burden of the work robot introduction environment.

実施の形態1にかかるシステムの概略的なブロック図である。1 is a schematic block diagram of a system according to a first exemplary embodiment. 実施の形態1にかかる端末装置の概略図である。1 is a schematic diagram of a terminal device according to a first embodiment; 実施の形態1にかかる端末装置の使用状態を示す概略図である。FIG. 3 is a schematic diagram illustrating a usage state of the terminal device according to the first embodiment; 実施の形態1にかかる作業ロボットの動作状態を示す概略図である。FIG. 3 is a schematic diagram illustrating an operation state of the work robot according to the first embodiment. 実施の形態1にかかる環境モデリングサーバの概略的なブロック図である。1 is a schematic block diagram of an environment modeling server according to a first embodiment. 実施の形態1にかかる端末装置の概略的なブロック図である。1 is a schematic block diagram of a terminal device according to a first embodiment; 実施の形態1にかかる3D画像取得部の概略的なブロック図である。3 is a schematic block diagram of a 3D image acquisition unit according to Embodiment 1. FIG. 実施の形態1にかかる端末装置に組み込まれた位置姿勢情報取得部の概略的なブロック図である。FIG. 3 is a schematic block diagram of a position / orientation information acquisition unit incorporated in the terminal device according to the first exemplary embodiment; 実施の形態1にかかる作業ロボットの概略的なブロック図である。1 is a schematic block diagram of a work robot according to a first embodiment. 実施の形態1にかかる作業ロボットに組み込まれた位置姿勢情報取得部の概略的なブロック図である。FIG. 2 is a schematic block diagram of a position / orientation information acquisition unit incorporated in the work robot according to the first exemplary embodiment. 実施の形態1にかかるシステムの概略動作を示すフローチャートである。3 is a flowchart showing a schematic operation of the system according to the first exemplary embodiment; 実施の形態1にかかる操作タグの配置動作を示す概略的なフローチャートである。3 is a schematic flowchart showing an operation tag arrangement operation according to the first exemplary embodiment; 実施の形態1にかかる操作タグの配置動作時の表示画像を示す図である。FIG. 6 is a diagram showing a display image at the time of operation tag placement operation according to the first exemplary embodiment; 実施の形態1にかかる操作タグの配置動作時の表示画像を示す図である。FIG. 6 is a diagram showing a display image at the time of operation tag placement operation according to the first exemplary embodiment; 実施の形態1にかかる操作タグの配置動作時の表示画像を示す図である。FIG. 6 is a diagram showing a display image at the time of operation tag placement operation according to the first exemplary embodiment; 実施の形態1にかかる操作タグの配置動作時の表示画像を示す図である。FIG. 6 is a diagram showing a display image at the time of operation tag placement operation according to the first exemplary embodiment; 実施の形態1にかかる操作タグの配置動作時の表示画像を示す図である。FIG. 6 is a diagram showing a display image at the time of operation tag placement operation according to the first exemplary embodiment; 実施の形態1にかかる画像として表示される操作アイコンを示す図である。FIG. 6 is a diagram showing operation icons displayed as images according to the first embodiment. 実施の形態1にかかる操作タグデータベースに格納される操作タグのデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the operation tag stored in the operation tag database concerning Embodiment 1. 実施の形態1にかかる幾何プリミティブと指示動作内容との関係を示す模式図である。FIG. 6 is a schematic diagram illustrating a relationship between geometric primitives and instruction operation contents according to the first embodiment; 実施の形態1にかかる幾何プリミティブと指示動作内容との組み合わせの変形例を示す模式図である。FIG. 10 is a schematic diagram illustrating a modification example of the combination of the geometric primitive and the instruction operation content according to the first embodiment. 実施の形態1にかかる操作情報の変更手順を示す概略的なフローチャートである。4 is a schematic flowchart showing a procedure for changing operation information according to the first exemplary embodiment; 実施の形態1にかかる操作情報の変更時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when changing operation information according to the first exemplary embodiment. 実施の形態1にかかる操作情報の変更時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when changing operation information according to the first exemplary embodiment. 実施の形態1にかかる操作情報の変更時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when changing operation information according to the first exemplary embodiment. 実施の形態1にかかる操作情報の変更時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when changing operation information according to the first exemplary embodiment. 実施の形態1にかかる操作タグの配置状態を模式的に示す仮想図である。FIG. 3 is a virtual diagram schematically showing an arrangement state of operation tags according to the first exemplary embodiment. 実施の形態1にかかる作業ロボットに対する操作指示手順を示す概略的なフローチャートである。3 is a schematic flowchart showing an operation instruction procedure for the work robot according to the first embodiment; 実施の形態1にかかる作業ロボットに対する操作指示時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when an operation instruction is given to the work robot according to the first exemplary embodiment. 実施の形態1にかかる作業ロボットに対する操作指示時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when an operation instruction is given to the work robot according to the first exemplary embodiment. 実施の形態1にかかる作業ロボットに対する操作指示時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when an operation instruction is given to the work robot according to the first exemplary embodiment. 実施の形態1にかかる作業ロボットに対する操作指示時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when an operation instruction is given to the work robot according to the first exemplary embodiment. 実施の形態1にかかる作業ロボットに対する操作指示時の表示画像を示す図である。FIG. 6 is a diagram showing a display image when an operation instruction is given to the work robot according to the first exemplary embodiment. 実施の形態1にかかる幾何プリミティブのバリエーションを示す図である。FIG. 10 is a diagram showing variations of geometric primitives according to the first exemplary embodiment. 実施の形態2にかかる環境モデリングサーバの概略的なブロック図である。It is a schematic block diagram of the environment modeling server concerning Embodiment 2. FIG. 実施の形態2にかかる被操作体の周囲にある特徴点の抽出状態を示す図である。It is a figure which shows the extraction state of the feature point around the to-be-operated body concerning Embodiment 2. FIG. 実施の形態2にかかる操作タグデータベースに格納される操作タグのデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the operation tag stored in the operation tag database concerning Embodiment 2. 実施の形態2にかかる特徴点の登録手順を示す概略的なフローチャートである。6 is a schematic flowchart showing a procedure for registering feature points according to the second embodiment; 実施の形態2にかかる操作タグの位置修正表示手順を示す概略的なフローチャートである。9 is a schematic flowchart showing a procedure for displaying and correcting the position of an operation tag according to a second embodiment; 実施の形態2にかかる被操作体の周囲にある特徴点の抽出状態を示す他の図である。FIG. 10 is another diagram showing an extraction state of feature points around the operated body according to the second embodiment.

以下、図面を参照しながら、本発明の実施形態について説明する。各実施形態と個々に独立したものではなく、適宜、組み合わせることが可能であり、また、組み合わせに基づく相乗効果も主張可能なものとする。同一の要素には同一の符号を付し、重複説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each embodiment is not individually independent, but can be appropriately combined, and a synergistic effect based on the combination can also be claimed. The same elements are denoted by the same reference numerals, and redundant description is omitted.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、システムの概略的なブロック図である。図2は、端末装置の概略図である。図3は、端末装置の使用状態を示す図である。図4は、作業ロボットの動作状態を示す図である。図5は、環境モデリングサーバの概略的なブロック図である。図6は、端末装置の概略的なブロック図である。図7は、3D画像取得部の概略的なブロック図である。図8は、位置姿勢情報取得部の概略的なブロック図である。図9は、作業ロボットの概略的なブロック図である。図10は、作業ロボットに組み込まれた位置姿勢情報取得部の概略的なブロック図である。図11は、システムの概略動作を示すフローチャートである。図12は、操作タグの配置動作を示す概略的なフローチャートである。図13〜図17は、操作タグの配置動作時の表示画像を示す図である。図18は、操作アイコンを示す図である。図19は、操作タグデータベースに格納される操作タグのデータ構造を示す模式図である。図20は、幾何プリミティブと指示動作内容との関係を示す模式図である。図21は、幾何プリミティブと指示動作内容との組み合わせの変形例を示す模式図である。図22は、操作情報の変更手順を示す概略的なフローチャートである。図23乃至図26は、操作情報の変更時の表示画像を示す図である。図27は、操作タグの配置状態を模式的に示す仮想図である。図28は、作業ロボットに対する操作指示手順を示す概略的なフローチャートである。図29乃至図33は、作業ロボットに対する操作指示時の表示画像を示す図である。図34は、幾何プリミティブのバリエーションを示す図である。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram of the system. FIG. 2 is a schematic diagram of the terminal device. FIG. 3 is a diagram illustrating a usage state of the terminal device. FIG. 4 is a diagram illustrating an operation state of the work robot. FIG. 5 is a schematic block diagram of the environment modeling server. FIG. 6 is a schematic block diagram of the terminal device. FIG. 7 is a schematic block diagram of the 3D image acquisition unit. FIG. 8 is a schematic block diagram of the position and orientation information acquisition unit. FIG. 9 is a schematic block diagram of the work robot. FIG. 10 is a schematic block diagram of the position / orientation information acquisition unit incorporated in the work robot. FIG. 11 is a flowchart showing a schematic operation of the system. FIG. 12 is a schematic flowchart showing an operation tag placement operation. 13 to 17 are diagrams showing display images at the time of operation tag placement operation. FIG. 18 is a diagram illustrating operation icons. FIG. 19 is a schematic diagram showing a data structure of operation tags stored in the operation tag database. FIG. 20 is a schematic diagram showing the relationship between geometric primitives and instruction operation contents. FIG. 21 is a schematic diagram illustrating a modification of the combination of the geometric primitive and the instruction operation content. FIG. 22 is a schematic flowchart showing a procedure for changing operation information. 23 to 26 are diagrams showing display images when the operation information is changed. FIG. 27 is a virtual diagram schematically showing the arrangement state of operation tags. FIG. 28 is a schematic flowchart showing an operation instruction procedure for the work robot. FIG. 29 to FIG. 33 are diagrams showing display images when an operation instruction is given to the work robot. FIG. 34 is a diagram showing variations of geometric primitives.

図1に示すように、システム100は、無線ネットワーク20を介して互いに通信可能に接続された環境モデリングサーバ10、端末装置30、及び作業ロボット40から構築される。なお、当業者であれば、適宜、システム変更をなすことが可能である。例えば、環境モデリングサーバ10に対して、端末装置30、作業ロボット40の一部の機能を移設することも可能である(その逆も然り)。   As shown in FIG. 1, the system 100 is constructed from an environment modeling server 10, a terminal device 30, and a work robot 40 that are communicably connected to each other via a wireless network 20. A person skilled in the art can make system changes as appropriate. For example, it is possible to transfer some functions of the terminal device 30 and the work robot 40 to the environment modeling server 10 (and vice versa).

環境モデリングサーバ10は、一般的なサーバ装置であり、高度な演算処理を実行可能に構成され、かつデータベースサーバとして機能可能に構成されている。端末装置30は、汎用レベルの処理機能を有するコンピュータから構成される。作業ロボット40にも、汎用レベルの処理機能を有するコンピュータが組み込まれている。なお、周知のように、コンピュータは、CPU(Central Processing Unit)、ハードディスク、メモリ、マザーボード、ドーターボード、外部インターフェイス等から構成される。CPUは、ハードディスク、メモリ等の記憶領域に格納されたプログラムを実行する。このようなCPUによるプログラム処理によって、様々な機能が具現化される。   The environment modeling server 10 is a general server device, and is configured to be able to execute advanced arithmetic processing and function as a database server. The terminal device 30 is composed of a computer having a general-purpose processing function. The work robot 40 also incorporates a computer having a general-purpose processing function. As is well known, the computer includes a CPU (Central Processing Unit), a hard disk, a memory, a motherboard, a daughter board, an external interface, and the like. The CPU executes a program stored in a storage area such as a hard disk or a memory. Various functions are implemented by such program processing by the CPU.

図2に示すように、端末装置30は、ユーザーにより持ち運び可能なサイズに構成されている。端末装置30の前面30aには、表示部30cが設けられ、その背面30bには、3次元計測部30d、及び画像取得部30eが設けられている。端末装置30の表示部30cは、タッチパネル装置が組み込まれている(図3も併せて参照のこと)。ユーザー210は、端末装置30のタッチパネルに表示されるアイコンを指で指定することによって、端末装置30に対して指示を入力する。画像取得部30eは、後述の画像取得部38bに相当する。3次元計測部30dは、後述の奥行き情報取得部38cに相当する。   As shown in FIG. 2, the terminal device 30 is configured to have a size that can be carried by the user. A display unit 30c is provided on the front surface 30a of the terminal device 30, and a three-dimensional measurement unit 30d and an image acquisition unit 30e are provided on the back surface 30b. A touch panel device is incorporated in the display unit 30c of the terminal device 30 (see also FIG. 3). The user 210 inputs an instruction to the terminal device 30 by designating an icon displayed on the touch panel of the terminal device 30 with a finger. The image acquisition unit 30e corresponds to an image acquisition unit 38b described later. The three-dimensional measurement unit 30d corresponds to a depth information acquisition unit 38c described later.

図3に模式的に示すように、ユーザー210は、端末装置30を持ち、作業ロボット40の導入環境に固定されている構造物(被操作体)90a〜90cを順次撮影し、後述の説明のように、端末装置30により取得された立体像に対して仮想的に操作タグを設定する。ユーザー210は、端末装置30の位置/姿勢を適当なものとすることによって、任意の構造物を撮影することができる。従って、目的とする構造物を迅速に、直感的に計測することができる。この場合には、固定カメラ等の場合のように死角が問題となることは低減される。   As schematically shown in FIG. 3, the user 210 has the terminal device 30 and sequentially photographs the structures (objects to be operated) 90 a to 90 c fixed in the environment where the work robot 40 is introduced. As described above, an operation tag is virtually set for the stereoscopic image acquired by the terminal device 30. The user 210 can take an image of an arbitrary structure by making the position / posture of the terminal device 30 appropriate. Therefore, the target structure can be measured quickly and intuitively. In this case, the problem of blind spots as in the case of a fixed camera is reduced.

システム100によって実行される操作タグの設定方法は、概略的に説明すれば、次のとおりである。まず、構造物の位置を示すための"位置データ(位置情報)"、その構造物の幾何形状を示すための"構造データ(幾何情報)"、その構造物に対して作業ロボットが成すべき動作内容を指定するための"操作内容データ(操作情報)"を生成し、これらを操作タグIDにて関連づけて記憶する。このようにして、導入空間内に存在する各構造物に対して作業ロボット40が為すべき操作内容が事前設定される。なお、各操作タグは、操作タグIDによって識別され、上述のデータを含んで構成される。本願では、操作タグIDに対して関連付けられたデータ群を単に"操作タグ"と簡略的に呼ぶ場合があるものとする。この点は、説明の便宜上の問題であり、この点を根拠として本願発明の技術的範囲が狭く解釈されることは許されない。   The operation tag setting method executed by the system 100 will be briefly described as follows. First, "position data (position information)" to indicate the position of the structure, "structure data (geometry information)" to indicate the geometric shape of the structure, and the work robot should perform on the structure “Operation content data (operation information)” for specifying the content is generated and stored in association with the operation tag ID. In this way, the operation content to be performed by the work robot 40 for each structure existing in the introduction space is preset. Each operation tag is identified by an operation tag ID and includes the above-described data. In the present application, a data group associated with an operation tag ID may be simply referred to as an “operation tag”. This is a problem for convenience of explanation, and the technical scope of the present invention is not allowed to be narrowly interpreted based on this point.

上述の構造データは、好適には、構造物の3次元計測により得られた立体像に対して幾何プリミティブを適用することによって得られる。これによって、作業ロボット40の操作対象となる構造物の実形状をシステム側が把握することが可能になり、作業ロボット40による構造物の操作精度が向上する。上述の位置データは、GPS測位、無線LANアクセスを測位基準として利用した測位、携帯電話基地局を利用した測位等によって取得される。操作内容データは、予め類型化されたデータから選択されるものである。   The above-described structure data is preferably obtained by applying geometric primitives to a stereoscopic image obtained by three-dimensional measurement of a structure. As a result, the system can grasp the actual shape of the structure to be operated by the work robot 40, and the operation accuracy of the structure by the work robot 40 is improved. The above-mentioned position data is acquired by GPS positioning, positioning using wireless LAN access as a positioning reference, positioning using a mobile phone base station, or the like. The operation content data is selected from pre-typed data.

図3に例示的に示すように、作業ロボットの導入環境には、タンス90a、物入れ90b、および扉90c等の構造物90が設けられている。タンス90aには、取っ手91aにより開閉される引き出し、及び取っ手91bにより開閉される引き出しが設けられている。物入れ90bには、取っ手91cにより開閉される扉が設けられている。扉90cは、取っ手91dによって開閉される。   As exemplarily shown in FIG. 3, a structure 90 such as a chest 90 a, a container case 90 b, and a door 90 c is provided in the environment where the work robot is introduced. The drawer 90a is provided with a drawer that is opened and closed by a handle 91a and a drawer that is opened and closed by a handle 91b. The container case 90b is provided with a door that is opened and closed by a handle 91c. The door 90c is opened and closed by a handle 91d.

図4に模式的に示すように、作業ロボット40は、導入環境内にて様々な作業を行う。例えば、作業ロボット40は、タンス90aの取っ手91aを手前に引き、タンス90aに設けられた上段引出しの中身を撮像する。作業ロボット40は、扉90cの取っ手91dを手前に引き、扉90cの向こう側の部屋へ移動する。作業ロボット40による各構造物の操作は、ユーザーによる端末装置30の操作によって実行される。   As schematically shown in FIG. 4, the work robot 40 performs various operations in the introduction environment. For example, the work robot 40 pulls the handle 91a of the chest 90a toward the front, and images the contents of the upper drawer provided in the chest 90a. The work robot 40 pulls the handle 91d of the door 90c forward, and moves to the room on the other side of the door 90c. The operation of each structure by the work robot 40 is executed by the operation of the terminal device 30 by the user.

作業ロボット40に対する操作指示は、ユーザー側から見ると、次のように実行される。端末装置30は、作業ロボット40の取得画像に操作タグアイコンが重畳表示された画像をユーザーに提示する。ユーザーは、端末装置30が提示する操作タグアイコンを指タッチし、これから導かれる操作内容を指タッチにより指定する。端末装置30から作業ロボット40に対して、ユーザーによる操作指示が転送され、作業ロボット40は所望の動作を実行する。構造物の3次元計測データに対して幾何プリミティブを適応することにより構造物の実形状が把握可能となっているため、作業ロボット40による構造物の操作は、精度よく実行可能である。また、作業ロボット40に対して伝達される操作指示は、構造物から得られたデータに対してフィッティングされた幾何プリミティブとの関係において特定される。これによって、構造物に対する作業ロボット40の操作内容を簡潔に示すことが可能になる。   The operation instruction for the work robot 40 is executed as follows when viewed from the user side. The terminal device 30 presents to the user an image in which the operation tag icon is superimposed on the acquired image of the work robot 40. The user touches the operation tag icon presented by the terminal device 30 with a finger, and specifies the operation content to be guided by the finger touch. An operation instruction by the user is transferred from the terminal device 30 to the work robot 40, and the work robot 40 executes a desired operation. Since the actual shape of the structure can be grasped by applying the geometric primitive to the three-dimensional measurement data of the structure, the operation of the structure by the work robot 40 can be executed with high accuracy. Further, the operation instruction transmitted to the work robot 40 is specified in relation to the geometric primitive fitted to the data obtained from the structure. Thereby, it becomes possible to simply show the operation content of the work robot 40 for the structure.

なお、図4に示すように、作業ロボット40は、外観要素として、車両部40a、胴部40b、頭部40c、及び腕部40d、40eを有する。作業ロボット40の腕部40dは、リンク部40d1、40d2、ハンド部40d3が関節接続されて構成される。作業ロボット40の腕部40eについても腕部40dと同様である。車両部40aには、個別に回転制御される一組の車輪40a1が設けられている。車両部40aには、一組の車輪を個別に制御する制御機構が組み込まれている。胴部40bには、作業ロボット40が行う様々な動作を制御する制御装置が組み込まれている。頭部40cには、様々なセンシングデバイス等が組み込まれている。   As shown in FIG. 4, the work robot 40 includes a vehicle part 40a, a body part 40b, a head part 40c, and arm parts 40d and 40e as appearance elements. The arm portion 40d of the work robot 40 is configured by jointly connecting link portions 40d1 and 40d2 and a hand portion 40d3. The arm 40e of the work robot 40 is the same as the arm 40d. The vehicle unit 40a is provided with a set of wheels 40a1 that are individually rotationally controlled. The vehicle unit 40a incorporates a control mechanism that individually controls a set of wheels. A control device for controlling various operations performed by the work robot 40 is incorporated in the body portion 40b. Various sensing devices and the like are incorporated in the head 40c.

作業ロボット40は、例えば、目的地までの移動経路等を自律的に決定し、決定した移動経路に沿って自律移動することが可能に構成されている。作業ロボット40は、センシングデバイスにて検出されるセンシング結果に基づいて自身の現在姿勢を検知することが可能に構成されている。作業ロボット40は、自律的又はユーザーからの指令に応じて、所望の姿勢に変化することが可能に構成されている。作業ロボット40による構造物の操作は、作業ロボット40の姿勢変化によって実行される。作業ロボット40内に組み込まれたアクチュエータ、モータ等の動作量を適当なものとすることによって、作業ロボット40の姿勢制御が実行される。   For example, the work robot 40 is configured to autonomously determine a movement route to the destination and autonomously move along the determined movement route. The work robot 40 is configured to be able to detect its current posture based on the sensing result detected by the sensing device. The work robot 40 is configured to be able to change to a desired posture autonomously or in response to a command from a user. The operation of the structure by the work robot 40 is executed by the posture change of the work robot 40. The posture control of the work robot 40 is executed by making the operation amount of the actuator, the motor, etc. incorporated in the work robot 40 appropriate.

繰り返しとなるが、本実施形態では、各構造物に対して仮想的に操作タグが付与される。各構造物に対して成す作業ロボットの操作内容は、操作対象の構造物に対して事前設定された操作タグに基づいて実行される。操作タグは、より好適には、被操作体の位置を示す位置データ(位置情報)、その被操作体の3次元計測から得られた立体像に対して幾何プリミティブを適応させて得られる構造データ(幾何情報)、およびその被操作体に対して作業ロボットが成すべき操作内容を示す操作内容データ(操作内容情報)を含む。ユーザーが構造物に対して操作タグを仮想的に事前設定することで、適切な操作環境モデルを構築することができ、作業ロボット40が導入される環境のモデル化の負担を低減することが可能になる。   Again, in this embodiment, an operation tag is virtually attached to each structure. The operation content of the work robot made for each structure is executed based on an operation tag set in advance for the structure to be operated. More preferably, the operation tag is position data (position information) indicating the position of the object to be operated, and structure data obtained by adapting the geometric primitive to the stereoscopic image obtained from the three-dimensional measurement of the object to be operated. (Geometric information) and operation content data (operation content information) indicating the operation content to be performed by the work robot on the operated body. A user can construct an appropriate operation environment model by virtually setting operation tags for the structure, and can reduce the burden of modeling the environment in which the work robot 40 is introduced. become.

構造物に対して仮想的に操作タグを付与することは、仮想空間内において、構造物に対応づけて操作タグを設定することを意味し、構造物に対して直接的に情報を持たせることは意味しない。構造物に対して関連付けられた操作タグを情報として管理することは、システム100(本例では、環境モデリングサーバ10)によって実行される。   Virtually assigning an operation tag to a structure means setting an operation tag in association with the structure in the virtual space, and giving information directly to the structure Does not mean. Management of operation tags associated with a structure as information is executed by the system 100 (in this example, the environment modeling server 10).

構造物を特定するための情報(構造物の位置、形状等を特定するための情報)に対して、同構造物に対して作業ロボット40が成すべき操作内容を付加して記憶することを繰り返すことによって、各構造物に対して操作タグを仮想的に付与することができる。作業ロボット40に対して実作業を実行させる場合、システム100は、作業ロボット40が得たデータ(位置データ、姿勢データ等)に基づいて、作業ロボット40が操作対象とする構造物に対して事前付与された操作タグをユーザーに対して提示する。ユーザーには、作業ロボットが成し得る動作内容が提示される。ユーザーは、端末装置30の操作によって、作業ロボット40に対して所定の操作を実行させる。   The information for specifying the structure (information for specifying the position, shape, etc. of the structure) is repeatedly added and stored with the operation content to be performed by the work robot 40 for the structure. Thus, an operation tag can be virtually attached to each structure. When causing the work robot 40 to perform an actual work, the system 100 preliminarily applies the structure to be operated by the work robot 40 based on data (position data, posture data, etc.) obtained by the work robot 40. Present the given operation tag to the user. The user is presented with the action content that the work robot can perform. The user causes the work robot 40 to execute a predetermined operation by operating the terminal device 30.

図5乃至図10を参照して、システム100の動作の詳細について説明する。なお、上述のように、システムの具体的な構成態様は任意である。端末装置30を単なる入出力装置として扱い、端末装置30が実行する演算処理機能の大部分を環境モデリングサーバ10に実行させても良い。端末装置30を用いて操作タグの設定を実行しているが、作業ロボット40を活用して操作タグの設定を実行しても良い。この場合、端末装置30に対して、3次元計測手段、位置姿勢計測手段等のセンシング機構を具備させる必要性を回避することができる。   Details of the operation of the system 100 will be described with reference to FIGS. As described above, the specific configuration of the system is arbitrary. The terminal device 30 may be handled as a simple input / output device, and the environment modeling server 10 may be caused to execute most of the arithmetic processing functions executed by the terminal device 30. Although the operation tag is set using the terminal device 30, the operation tag may be set using the work robot 40. In this case, it is possible to avoid the necessity of providing the terminal device 30 with a sensing mechanism such as a three-dimensional measuring unit or a position / orientation measuring unit.

図5に示すように、環境モデリングサーバ10は、通信部11、制御部12、操作タグデータベース13、操作タグ生成部14、及びフィッティング実行部15を有する。通信部11は、無線ネットワーク20に対して無線接続される。制御部12は、通信部11、操作タグデータベース13、及び操作タグ生成部14に対して接続される。操作タグ生成部14は、フィッティング実行部15に対して接続される。   As illustrated in FIG. 5, the environment modeling server 10 includes a communication unit 11, a control unit 12, an operation tag database 13, an operation tag generation unit 14, and a fitting execution unit 15. The communication unit 11 is wirelessly connected to the wireless network 20. The control unit 12 is connected to the communication unit 11, the operation tag database 13, and the operation tag generation unit 14. The operation tag generation unit 14 is connected to the fitting execution unit 15.

通信部11は、無線ネットワーク20を介して、端末装置30、作業ロボット40と通信を行う。通信部11は、技術標準に準拠して構成される。制御部12は、通信制御、データベースアクセス制御、メモリアクセス制御、シーケンス制御、演算制御、データ転送制御、データ圧縮/解凍制御等を行う。操作タグデータベース13は、データを管理するユニットであり、データベースコントローラを内蔵する。操作タグ生成部14は、操作タグデータベースに格納される操作タグを生成する。フィッティング実行部15は、端末装置30、作業ロボット40から転送された3次元データに対して、予め登録されている幾何プリミティブのフィッティングを実行する。   The communication unit 11 communicates with the terminal device 30 and the work robot 40 via the wireless network 20. The communication unit 11 is configured in accordance with a technical standard. The control unit 12 performs communication control, database access control, memory access control, sequence control, calculation control, data transfer control, data compression / decompression control, and the like. The operation tag database 13 is a unit for managing data and incorporates a database controller. The operation tag generator 14 generates operation tags stored in the operation tag database. The fitting execution unit 15 performs fitting of geometric primitives registered in advance on the three-dimensional data transferred from the terminal device 30 and the work robot 40.

図6に示すように、端末装置30は、通信部31、制御部32、表示画像生成部33(メニュー生成部33a、仮想画像生成部33b、合成画像生成部33c)、表示部36、指示入力部37、3D画像取得部38、および位置姿勢情報取得部39を有する。通信部31は、無線ネットワーク20に対して無線接続される。制御部32は、通信部31、表示画像生成部33、表示部36、指示入力部37、3D画像取得部38、および位置姿勢情報取得部39に対して接続される。   As illustrated in FIG. 6, the terminal device 30 includes a communication unit 31, a control unit 32, a display image generation unit 33 (a menu generation unit 33a, a virtual image generation unit 33b, and a composite image generation unit 33c), a display unit 36, and an instruction input. A unit 37, a 3D image acquisition unit 38, and a position and orientation information acquisition unit 39. The communication unit 31 is wirelessly connected to the wireless network 20. The control unit 32 is connected to the communication unit 31, the display image generation unit 33, the display unit 36, the instruction input unit 37, the 3D image acquisition unit 38, and the position / orientation information acquisition unit 39.

通信部31は、無線ネットワーク20を介して、環境モデリングサーバ10、作業ロボット40と通信を行う。通信部31は、技術標準に準拠して構成される。制御部32は、通信制御、メモリアクセス制御、シーケンス制御、演算制御、データ転送制御、データ圧縮/解凍制御等を行う。表示画像生成部33は、表示部36にて生成されるべき画像を生成する。メニュー生成部33aは、メニュー等の表示項目を生成する。仮想画像生成部33bは、実在しない仮想表示を生成する。合成画像生成部33cは、画像の合成処理を実行する。表示部36は、液晶ディスプレイ等から構成される画像表示部である。指示入力部37は、タッチパネルディスプレイに格納される指示入力位置検出装置等により構成される。3D画像取得部38は、周囲環境を写す2次元画像に加えて、画像の奥行き情報を取得する。位置姿勢情報取得部39は、端末装置30の位置姿勢情報を取得する。   The communication unit 31 communicates with the environment modeling server 10 and the work robot 40 via the wireless network 20. The communication unit 31 is configured in accordance with a technical standard. The control unit 32 performs communication control, memory access control, sequence control, calculation control, data transfer control, data compression / decompression control, and the like. The display image generation unit 33 generates an image to be generated by the display unit 36. The menu generation unit 33a generates display items such as menus. The virtual image generation unit 33b generates a virtual display that does not exist. The composite image generation unit 33c executes an image composition process. The display unit 36 is an image display unit configured from a liquid crystal display or the like. The instruction input unit 37 is configured by an instruction input position detection device or the like stored in a touch panel display. The 3D image acquisition unit 38 acquires the depth information of the image in addition to the two-dimensional image showing the surrounding environment. The position and orientation information acquisition unit 39 acquires position and orientation information of the terminal device 30.

3D画像取得部38の具体的構成は任意である。例えば、異なる位置に配置された2つのカメラにて画像取得し、異なる視点から取得された2つの画像に基づいて奥行き情報を算出しても良い。TOF(Time Of Flight)の原理に基づいて奥行き情報を求めても良い。或いは、コード化した光の投光によって得られる反射光の検知に基づいて奥行き情報を取得しても良い。図7に例示的に示すように、3D画像取得部38は、制御部38a、画像取得部38b、奥行き情報取得部38c、奥行き算出部38dを有する。制御部38aは、画像取得部38b、奥行き情報取得部38c、及び奥行き算出部38dに対して接続される。奥行き情報取得部38cは、奥行き算出部38dに対して接続される。制御部38aは、制御部32に対して接続される。   The specific configuration of the 3D image acquisition unit 38 is arbitrary. For example, images may be acquired by two cameras arranged at different positions, and depth information may be calculated based on two images acquired from different viewpoints. Depth information may be obtained based on the principle of TOF (Time Of Flight). Alternatively, the depth information may be acquired based on detection of reflected light obtained by projecting coded light. As illustrated in FIG. 7, the 3D image acquisition unit 38 includes a control unit 38a, an image acquisition unit 38b, a depth information acquisition unit 38c, and a depth calculation unit 38d. The control unit 38a is connected to the image acquisition unit 38b, the depth information acquisition unit 38c, and the depth calculation unit 38d. The depth information acquisition unit 38c is connected to the depth calculation unit 38d. The control unit 38a is connected to the control unit 32.

制御部38aは、画像取得部38b、奥行き情報取得部38c、奥行き算出部38dの動作を制御する。画像取得部38bは、好適には、カメラによって構成される。カメラは、CMOSセンサ(撮像素子)、CMOSセンサに対して被写体像を結像させるレンズ(光学系)、レンズを変位させる機構(レンズ駆動装置)、及びCMOSセンサの出力データを処理する機能回路等から構成される。画像取得部38bで取得された画像データは、バスを介して、表示部36に伝送される。奥行き情報取得部38cは、パターン光投光部と、パターン光受光部とから構成される。奥行き算出部38dは、パターン光の投光時点から反射されたパターン光の受光時点間の時間計測に基づいて、奥行き情報を算出する。或いは、パターン光投光位置とカメラの視差によるステレオ原理に基づいて、奥行き情報を算出しても良い。   The control unit 38a controls operations of the image acquisition unit 38b, the depth information acquisition unit 38c, and the depth calculation unit 38d. The image acquisition unit 38b is preferably configured by a camera. The camera includes a CMOS sensor (imaging device), a lens (optical system) that forms a subject image on the CMOS sensor, a mechanism (lens driving device) that displaces the lens, a functional circuit that processes output data of the CMOS sensor, and the like. Consists of The image data acquired by the image acquisition unit 38b is transmitted to the display unit 36 via the bus. The depth information acquisition unit 38c includes a pattern light projecting unit and a pattern light receiving unit. The depth calculation unit 38d calculates the depth information based on the time measurement between the pattern light reception times reflected from the pattern light projection time. Alternatively, the depth information may be calculated based on the stereo principle based on the pattern light projection position and the parallax of the camera.

位置姿勢情報取得部39の具体的構成は任意である。例えば、位置姿勢情報取得部39は、導入環境に設定された複数の発信源から発信される信号の受信強度に基づいて、現在位置を算出する。昨今においては、衛星から受信したGPS信号に基づいて現在位置を算出することが多用されている。従って、この技術を活用して現在位置を取得しても良い。姿勢情報は、本体に内蔵されたジャイロセンサ等の出力から求めることができる。   The specific configuration of the position and orientation information acquisition unit 39 is arbitrary. For example, the position and orientation information acquisition unit 39 calculates the current position based on the reception strength of signals transmitted from a plurality of transmission sources set in the introduction environment. In recent years, it is often used to calculate the current position based on GPS signals received from satellites. Therefore, the current position may be acquired using this technique. The posture information can be obtained from the output of a gyro sensor or the like built in the main body.

図8に例示的に示すように、位置姿勢情報取得部39は、制御部39a、GPS信号受信部39b、加速度検出部39c、地磁気検出部39dを有する。制御部39aは、GPS信号受信部39b、加速度検出部39c、地磁気検出部39dに対して接続される。制御部39aは、制御部32に対して接続される。   As exemplarily shown in FIG. 8, the position / orientation information acquisition unit 39 includes a control unit 39a, a GPS signal reception unit 39b, an acceleration detection unit 39c, and a geomagnetism detection unit 39d. The controller 39a is connected to the GPS signal receiver 39b, the acceleration detector 39c, and the geomagnetism detector 39d. The control unit 39a is connected to the control unit 32.

制御部39aは、GPS信号受信部39b、加速度検出部39c、地磁気検出部39dを制御し、各ユニットから入力されるデータに対して演算処理等する。GPS信号受信部39bは、GPS信号を受信する。加速度検出部39cは、3軸方向の加速度を検出する。地磁気検出部39dは、地磁気を検出する。   The control unit 39a controls the GPS signal reception unit 39b, the acceleration detection unit 39c, and the geomagnetism detection unit 39d, and performs arithmetic processing on data input from each unit. The GPS signal receiving unit 39b receives a GPS signal. The acceleration detector 39c detects the acceleration in the triaxial direction. The geomagnetism detector 39d detects geomagnetism.

図9に示すように、作業ロボット40は、通信部41、制御部42、3D画像取得部43、位置姿勢情報取得部44、および駆動制御部45を有する。通信部31は、無線ネットワーク20に対して無線接続される。制御部42は、通信部41、3D画像取得部43、位置姿勢情報取得部44、および駆動制御部45に対して接続される。   As illustrated in FIG. 9, the work robot 40 includes a communication unit 41, a control unit 42, a 3D image acquisition unit 43, a position and orientation information acquisition unit 44, and a drive control unit 45. The communication unit 31 is wirelessly connected to the wireless network 20. The control unit 42 is connected to the communication unit 41, the 3D image acquisition unit 43, the position / orientation information acquisition unit 44, and the drive control unit 45.

通信部31は、無線ネットワーク20を介して、環境モデリングサーバ10、端末装置30と通信を行う。通信部41は、技術標準に準拠して構成される。制御部42は、通信制御、メモリアクセス制御、シーケンス制御、演算制御、データ転送制御、データ圧縮/解凍制御等を行う。3D画像取得部43は、周囲環境を写す2次元画像に加えて、画像の奥行き情報を取得する。位置姿勢情報取得部44は、作業ロボット40の位置姿勢情報を取得する。駆動制御部45は、作業ロボット40に内蔵される駆動機構を制御する。   The communication unit 31 communicates with the environment modeling server 10 and the terminal device 30 via the wireless network 20. The communication unit 41 is configured in accordance with a technical standard. The control unit 42 performs communication control, memory access control, sequence control, calculation control, data transfer control, data compression / decompression control, and the like. The 3D image acquisition unit 43 acquires the depth information of the image in addition to the two-dimensional image showing the surrounding environment. The position and orientation information acquisition unit 44 acquires position and orientation information of the work robot 40. The drive control unit 45 controls a drive mechanism built in the work robot 40.

図10に例示的に示すように、位置姿勢情報取得部44は、制御部44a、GPS信号受信部44b、加速度検出部44c、地磁気検出部44d、及び関節軸角度検出部44eを有する。制御部44aは、GPS信号受信部44b、加速度検出部44c、地磁気検出部44d、及び関節軸角度検出部44eに対して接続される。制御部44aは、制御部32に対して接続される。関節軸角度検出部44eは、ロータリーエンコーダ等の活用によって、リンク間の回転各等を検出する。なお、作業ロボット40には、作業ロボット40の現在姿勢を検出することに必要な様々なセンシングデバイスが内蔵されることは上述したとおりである。   As illustrated in FIG. 10, the position / orientation information acquisition unit 44 includes a control unit 44a, a GPS signal reception unit 44b, an acceleration detection unit 44c, a geomagnetism detection unit 44d, and a joint axis angle detection unit 44e. The controller 44a is connected to the GPS signal receiver 44b, the acceleration detector 44c, the geomagnetism detector 44d, and the joint axis angle detector 44e. The control unit 44a is connected to the control unit 32. The joint axis angle detection unit 44e detects each rotation between links by using a rotary encoder or the like. As described above, the work robot 40 includes various sensing devices necessary for detecting the current posture of the work robot 40.

図5乃至図10に開示した要素の具体的な動作内容は、後述の説明から更に明らかになる。   The specific operation contents of the elements disclosed in FIGS. 5 to 10 will be further clarified from the following description.

図11に示すように、システム100は、操作タグデータベースの構築をし、その後、操作タグデータベースの格納された操作タグを活用してロボット制御する。   As illustrated in FIG. 11, the system 100 constructs an operation tag database, and then performs robot control using the operation tags stored in the operation tag database.

図12を参照して、操作タグの配置手順について説明する。図13乃至図20も適宜参照して説明する。   With reference to FIG. 12, the procedure for arranging operation tags will be described. This will be described with reference to FIGS. 13 to 20 as appropriate.

まず、被操作体を表示する(S100)。具体的には、ユーザーは、図3に模式的に示すように、作業ロボット40の導入空間にて端末装置30を持ち、構造物(例えば、タンス90aの取っ手91a)を撮影する。ユーザーは、端末装置30を適切な位置とすることによって、端末装置30により取っ手91aを撮影する。端末装置30の表示部36は、図13に模式的に示すように、取っ手91aを表示する。   First, an object to be operated is displayed (S100). Specifically, as schematically shown in FIG. 3, the user holds the terminal device 30 in the introduction space of the work robot 40 and photographs a structure (for example, the handle 91 a of the chest 90 a). The user photographs the handle 91a by the terminal device 30 by setting the terminal device 30 to an appropriate position. The display unit 36 of the terminal device 30 displays a handle 91a as schematically shown in FIG.

次に、キャプチャ動作を実行する(S101)。具体的には、ユーザーは、端末装置30の表示部36に表示されているカメラアイコンを指でタッチし、端末装置30に対してキャプチャ動作の実行を指示する。   Next, a capture operation is executed (S101). Specifically, the user touches the camera icon displayed on the display unit 36 of the terminal device 30 with a finger, and instructs the terminal device 30 to execute a capture operation.

端末装置30は、キャプチャ実行指示の入力に応じて、(1)被操作体を写す画像のキャプチャ、(2)被操作体の3次元計測、(3)端末装置の位置姿勢データの取得を同時刻に実行する。なお、キャプチャ動作の実行指示の入力は、指示入力部37を介して制御部32に伝達する。制御部32は、3D画像取得部38、位置姿勢情報取得部39に対してデータ取得動作を指示する。3次元計測の具体的な手法は任意である。例えば、3次元計測は、1以上のカメラとパターン光投影機によって実行される。他の例では、2以上のカメラによるステレオ画像計測装置によって、3次元計測が実行される。他の例では、レーザレンジスキャナによって3次元計測が実行される。   In response to the input of the capture execution instruction, the terminal device 30 performs the same steps of (1) capturing an image of the operated object, (2) three-dimensional measurement of the operated object, and (3) acquiring the position and orientation data of the terminal device. Run at time. Note that the input of the capture operation execution instruction is transmitted to the control unit 32 via the instruction input unit 37. The control unit 32 instructs the 3D image acquisition unit 38 and the position / orientation information acquisition unit 39 to perform a data acquisition operation. A specific method of three-dimensional measurement is arbitrary. For example, three-dimensional measurement is performed by one or more cameras and a pattern light projector. In another example, three-dimensional measurement is performed by a stereo image measurement device using two or more cameras. In another example, three-dimensional measurement is performed by a laser range scanner.

画像取得部38bは、キャプチャ実行指示の入力時に応じて、現在の取得画像を保持する。   The image acquisition unit 38b holds the current acquired image according to the input of the capture execution instruction.

奥行き情報取得部38cは、キャプチャ実行指示の入力に応じて、キャプチャ画像の面内における奥行き情報を取得する。例えば、光学的な手法によって奥行き情報は取得される。パターン光の出射から、パターン光が物体に反射して戻ってくる戻り光の検出までの時間を計測することによって、パターン光の照射範囲内の奥行き情報が取得される。なお、奥行き情報の取得方法は任意であり、この例に限られるべきものではない。   The depth information acquisition unit 38c acquires depth information in the plane of the captured image in response to an input of a capture execution instruction. For example, depth information is acquired by an optical method. The depth information within the irradiation range of the pattern light is acquired by measuring the time from the emission of the pattern light to the detection of the return light that is reflected by the object and returns. The depth information acquisition method is arbitrary and should not be limited to this example.

光学的手法により奥行き情報を取得する場合、次のような構成が採用可能である。奥行き情報取得部38cは、パターン光の出射から戻り光の受光までの時間を計測するセンシングユニットである。奥行き算出部38dは、そのセンシングユニットから出力される時間情報から距離を算出する演算ユニットである。   When acquiring depth information by an optical method, the following configuration can be employed. The depth information acquisition unit 38c is a sensing unit that measures the time from emission of pattern light to reception of return light. The depth calculation unit 38d is an arithmetic unit that calculates a distance from time information output from the sensing unit.

位置姿勢情報取得部39は、キャプチャ実行指示の入力に応じて、端末装置30の位置姿勢情報を取得する。GPS信号受信部39bは、GPS信号を受信する。加速度検出部39cは、3軸方向の加速度を検出する。地磁気検出部39dは、地磁気を検出する。制御部39aは、GPS信号から、端末装置30の現在位置を算出する。制御部39aは、3軸方向の加速度から端末装置30の鉛直からの姿勢状態を示す値を算出する。制御部39aは、検出された地磁気の値から端末装置30の水平面内の姿勢を算出する。制御部39aは、これらの鉛直および水平面内の姿勢から端末の姿勢を算出する。   The position / orientation information acquisition unit 39 acquires position / orientation information of the terminal device 30 in response to an input of a capture execution instruction. The GPS signal receiving unit 39b receives a GPS signal. The acceleration detector 39c detects the acceleration in the triaxial direction. The geomagnetism detector 39d detects geomagnetism. The control unit 39a calculates the current position of the terminal device 30 from the GPS signal. The control part 39a calculates the value which shows the attitude | position state from the perpendicular | vertical of the terminal device 30 from the acceleration of a triaxial direction. The control unit 39a calculates the attitude of the terminal device 30 in the horizontal plane from the detected geomagnetism value. The control unit 39a calculates the posture of the terminal from these vertical and horizontal postures.

キャプチャ動作の実行指示の入力に応じて取得された(1)キャプチャ画像、(2)被操作体の3次元計測データ、(3)端末装置の位置姿勢データは、バッファ等に一時的に格納される。このバッファは、例えば、制御部32内に設けられる。   The (1) captured image, (2) three-dimensional measurement data of the object to be operated, and (3) the position and orientation data of the terminal device acquired in response to the input of the capture operation execution instruction are temporarily stored in a buffer or the like. The This buffer is provided in the control unit 32, for example.

次に、アイコン選択画像を生成/表示する(S102)。具体的には、制御部32は、表示画像生成部33に対して、キャプチャ画像に対して操作アイコンの選択画像を付加した表示画像の生成を指示する。これに応じて、表示画像生成部33は、メニュー生成部33aに対してアイコン選択画像の生成を指示し、合成画像生成部33cに対してキャプチャ画像とアイコン選択画像との合成処理を指示する。合成画像生成部33cで生成された合成画像は、表示部36によって表示される。これにより、端末装置30は、図14に模式的に示す画面を表示する。   Next, an icon selection image is generated / displayed (S102). Specifically, the control unit 32 instructs the display image generation unit 33 to generate a display image obtained by adding the operation icon selection image to the capture image. In response to this, the display image generation unit 33 instructs the menu generation unit 33a to generate an icon selection image, and instructs the composite image generation unit 33c to combine the captured image and the icon selection image. The composite image generated by the composite image generation unit 33c is displayed by the display unit 36. Thereby, the terminal device 30 displays a screen schematically shown in FIG.

図14に開示された動作A〜動作Dを示すアイコンには、図18に模式的に示すアイコンが表示されるものとする。図18(a)に示されたアイコンは、直線に沿って取っ手を押し/引きする操作を示すアイコンである。図18(b)に示されたアイコンは、曲線に沿って取っ手を押し/引きする操作を示すアイコンである。図18(c)に示されたアイコンは、直線に沿って取っ手を回転させ、続いて、曲線に沿って取っ手を押し/引きする操作を示すアイコンである。図18(d)に示されたアイコンは、直線に沿ってボタンを押し/離す操作を示すアイコンである。図18に開示されたアイコンは、構造物に対して作業ロボットが為すべき操作内容を示す。   It is assumed that the icons schematically shown in FIG. 18 are displayed on the icons indicating the actions A to D disclosed in FIG. The icon shown in FIG. 18A is an icon indicating an operation of pushing / pulling the handle along a straight line. The icon shown in FIG. 18B is an icon indicating an operation of pushing / pulling the handle along the curve. The icon shown in FIG. 18C is an icon indicating an operation of rotating the handle along a straight line and subsequently pushing / pulling the handle along the curve. The icon shown in FIG. 18D is an icon indicating an operation of pressing / releasing a button along a straight line. The icon disclosed in FIG. 18 indicates the operation content that the work robot should perform on the structure.

表示画像生成部33の具体的な画像生成態様は任意である。例えば、メニュー生成部33aは、図14に示す表示領域R10に表示されるべきアイコン選択画像を生成する。合成画像生成部33cは、メニュー生成部33aにて生成された画像とキャプチャ画像とに基づく合成画像を生成する。なお、図14に示す表示領域R10、R20には、適宜、他の処理をユーザーに提示/案内するためのアイコンを表示させても良い。また、表示領域R20を画面全体として、表示領域R10を透過表示させても良い。   The specific image generation mode of the display image generation unit 33 is arbitrary. For example, the menu generation unit 33a generates an icon selection image to be displayed in the display area R10 illustrated in FIG. The composite image generation unit 33c generates a composite image based on the image generated by the menu generation unit 33a and the captured image. In addition, in display area | region R10, R20 shown in FIG. 14, you may display the icon for showing / guiding another process to a user suitably. Alternatively, the display area R20 may be displayed as the entire screen, and the display area R10 may be transparently displayed.

次に、操作タグアイコンの選択をする(S103)。具体的には、図15に模式的に示すように、ユーザーは、表示部36に表示されている構造体上へ、作業ロボット40が成すべき動作を示す適切なアイコンを選択的に移動させる。図15に表示された構造物は、図3のタンス90aの取っ手91aである。従って、ユーザーは、図18(a)に示すアイコンを選択して、これを取っ手91a上へ移動させる。このようにして、キャプチャされた構造体に対して、操作情報が関連づけられることになる。なお、ユーザーによるアイコンの選択は、指示入力部37、制御部32、表示部36等らの協調的動作によって実現される。タッチパネルセンサの制御技術は確立されているため、その詳細な動作説明は省略する。   Next, an operation tag icon is selected (S103). Specifically, as schematically shown in FIG. 15, the user selectively moves an appropriate icon indicating the operation to be performed by the work robot 40 onto the structure displayed on the display unit 36. The structure displayed in FIG. 15 is a handle 91a of the chase 90a of FIG. Accordingly, the user selects the icon shown in FIG. 18A and moves it onto the handle 91a. In this way, operation information is associated with the captured structure. The selection of the icon by the user is realized by cooperative operation of the instruction input unit 37, the control unit 32, the display unit 36, and the like. Since the control technology of the touch panel sensor has been established, detailed operation description thereof is omitted.

次に、フィッティングを実行する(S104)。具体的には、端末装置30は、環境モデリングサーバ10に対してフィッティングに必要なデータを送信する。環境モデリングサーバ10は、端末装置30から受信したデータに基づいて、被操作体の3次元計測データに対して幾何プリミティブをフィッティングする。   Next, fitting is executed (S104). Specifically, the terminal device 30 transmits data necessary for fitting to the environment modeling server 10. The environment modeling server 10 fits a geometric primitive to the three-dimensional measurement data of the operated object based on the data received from the terminal device 30.

端末装置30は、キャプチャ動作により取得したデータ(キャプチャ画像データ、3次元計測データ)を環境モデリングサーバ10へ送信する。好適には、端末装置30は、環境モデリングサーバ10のフィッティング処理の短縮のため、操作アイコンがドロップされたキャプチャ画像上の位置を示すデータも環境モデリングサーバ10へ送信する。   The terminal device 30 transmits data (capture image data, three-dimensional measurement data) acquired by the capture operation to the environment modeling server 10. Preferably, in order to shorten the fitting process of the environment modeling server 10, the terminal device 30 also transmits data indicating the position on the captured image where the operation icon is dropped to the environment modeling server 10.

環境モデリングサーバ10は、端末装置30からの受信データに基づいて、被操作体の3次元計測データに対して幾何プリミティブをフィッティングし、フィッティングにより得られたデータを端末装置30へ送信する。フィッティングにより得られるデータは、幾何プリミティブの形状、位置、姿勢を指定するデータである。端末装置30は、環境モデリングサーバ10から供給されたデータに基づいて、図16に模式的に示すように、キャプチャ画像に対して幾何プリミティブが重畳された画像を合成表示する。   Based on the data received from the terminal device 30, the environment modeling server 10 fits geometric primitives to the three-dimensional measurement data of the operated object, and transmits the data obtained by the fitting to the terminal device 30. Data obtained by the fitting is data for designating the shape, position, and orientation of the geometric primitive. Based on the data supplied from the environment modeling server 10, the terminal device 30 synthesizes and displays an image in which geometric primitives are superimposed on the captured image, as schematically shown in FIG.

フィッティング実行部15は、幾何プリミティブ対(円柱プリミティブと矩形プリミティブの組)を活用して、構造物の3次元形状を示すデータを生成する。上述のように、端末装置30から環境モデリングサーバ10には、上述のデータ(キャプチャ画像データ、3次元計測データ、及び操作アイコンがドロップされたキャプチャ画像上の位置を示すデータ)が転送される。   The fitting execution unit 15 generates data indicating the three-dimensional shape of the structure using a geometric primitive pair (a set of a cylindrical primitive and a rectangular primitive). As described above, the above-described data (capture image data, three-dimensional measurement data, and data indicating the position on the capture image where the operation icon is dropped) are transferred from the terminal device 30 to the environment modeling server 10.

フィッティング実行部15は、キャプチャ画像に対する操作アイコンのドロップ位置に基づいて、操作アイコンのドロップ位置周辺部分の奥行き情報(3次元計測データ)に対して幾何プリミティブをフィッティングする。   The fitting execution unit 15 fits a geometric primitive to the depth information (three-dimensional measurement data) around the operation icon drop position based on the drop position of the operation icon on the captured image.

フィッティングの具体的方法は任意である。例えば、2次元画像及びその奥行き情報から構造物の輪郭及び表面形状が得られる。構造物の輪郭及び表面形状に対して円柱プリミティブを適応し、円柱プリミティブの特定データを得る。円柱プリミティブの特定データは、円柱プリミティブの初期位置姿勢を示すデータ、円柱プリミティブの形状を示すデータを含む。このようなフィッティングによって、円柱プリミティブの位置ベクトル(基準点から円柱プリミティブの中心点を結ぶベクトル)、円柱プリミティブの姿勢ベクトル(円柱の長手方向/延在方向を示すベクトル)が決定される。   The specific method of fitting is arbitrary. For example, the outline and surface shape of the structure can be obtained from the two-dimensional image and its depth information. A cylinder primitive is applied to the outline and surface shape of the structure to obtain specific data of the cylinder primitive. The specific data of the cylinder primitive includes data indicating the initial position and orientation of the cylinder primitive and data indicating the shape of the cylinder primitive. By such fitting, the position vector of the cylinder primitive (vector connecting the reference point to the center point of the cylinder primitive) and the attitude vector of the cylinder primitive (vector indicating the longitudinal direction / extension direction of the cylinder) are determined.

次に、2次元画像及びその奥行き情報から、取っ手が取り付けられた面の表面形状が得られる。取っ手が取り付けられた面に対して矩形プリミティブを適応し、矩形プリミティブの特定データを得る。矩形プリミティブの特定データは、円柱からの距離を示すデータ、矩形の横幅を示すデータ、矩形の縦幅を示すデータを含む。このようにして、被操作体の幾何形状を特定することに十分なデータが取得される。上述の場合、円柱プリミティブの位置ベクトル、姿勢ベクトルを基準として、矩形プリミティブの位置、姿勢が把握される。矩形プリミティブは、鉛直方向に対して平行に配置されるように設定されている。   Next, the surface shape of the surface to which the handle is attached is obtained from the two-dimensional image and its depth information. A rectangular primitive is applied to the surface to which the handle is attached, and specific data of the rectangular primitive is obtained. The specific data of the rectangle primitive includes data indicating the distance from the cylinder, data indicating the horizontal width of the rectangle, and data indicating the vertical width of the rectangle. In this way, data sufficient to specify the geometry of the object to be operated is acquired. In the case described above, the position and orientation of the rectangular primitive are grasped with reference to the position vector and orientation vector of the cylindrical primitive. The rectangular primitives are set so as to be arranged in parallel to the vertical direction.

フィッティングの具体的な態様は任意である。例えば、3次元計測データから抽出される構造物の表面形状に対して幾何プリミティブを適応し、所定のアルゴリズムを活用して幾何プリミティブの形状、位置、姿勢の収束点を求める。これによって、構造物に対してフィットした状態の幾何プリミティブの形状、位置、姿勢を算出することができる。   The specific mode of fitting is arbitrary. For example, a geometric primitive is applied to the surface shape of a structure extracted from three-dimensional measurement data, and a convergence point of the shape, position, and orientation of the geometric primitive is obtained using a predetermined algorithm. As a result, the shape, position, and orientation of the geometric primitive fitted to the structure can be calculated.

次に、フィッティング結果を表示する(S105)。具体的には、環境モデリングサーバ10によるフィッティングにより得られた上述のデータは、端末装置30に転送され、端末装置30によって処理される。これによって、キャプチャ画像に対して幾何プリミティブが重畳された画像が合成表示される。   Next, the fitting result is displayed (S105). Specifically, the above-described data obtained by fitting by the environment modeling server 10 is transferred to the terminal device 30 and processed by the terminal device 30. As a result, an image in which the geometric primitive is superimposed on the captured image is synthesized and displayed.

具体的には、次のとおりである。環境モデリングサーバ10のフィッティング実行部15で生成されたデータは、端末装置30の表示画像生成部33に転送される。表示画像生成部33は、仮想画像生成部33bに対して、受信データに基づいて、円柱プリミティブと矩形プリミティブが表示された仮想画像を生成させる。表示画像生成部33は、合成画像生成部33cに対して、キャプチャ画像に対して仮想画像が付加された画像を合成させる。これによって、図16に示すように、構造物(取っ手91a)に対して円柱プリミティブと矩形プリミティブが重畳された画像が表示される。   Specifically, it is as follows. Data generated by the fitting execution unit 15 of the environment modeling server 10 is transferred to the display image generation unit 33 of the terminal device 30. The display image generation unit 33 causes the virtual image generation unit 33b to generate a virtual image in which a cylindrical primitive and a rectangular primitive are displayed based on the received data. The display image generation unit 33 causes the composite image generation unit 33c to synthesize an image obtained by adding a virtual image to the capture image. As a result, as shown in FIG. 16, an image in which a cylindrical primitive and a rectangular primitive are superimposed on a structure (handle 91a) is displayed.

次に、フィッティングが成功したか否かを判断する(S106)。具体的には、ユーザーは、端末装置30に表示されたフィッティング状態が適当なものか否かを判断し、その判断結果を端末装置30に入力する。図16に模式的に示すように、端末装置30の表示部36には、OKアイコン、NGアイコンが表示される。ユーザーは、いずれかのアイコンを選択することによって、フィッティングOK又はNGの判断結果を端末装置30に入力する。フィッティングNGの場合、ステップS100に戻り、キャプチャ対象の構造物を再セットして、同様の作業を実行する。   Next, it is determined whether or not the fitting is successful (S106). Specifically, the user determines whether or not the fitting state displayed on the terminal device 30 is appropriate, and inputs the determination result to the terminal device 30. As schematically shown in FIG. 16, an OK icon and an NG icon are displayed on the display unit 36 of the terminal device 30. The user inputs a fitting OK or NG determination result to the terminal device 30 by selecting one of the icons. In the case of fitting NG, the process returns to step S100, the structure to be captured is reset, and the same operation is executed.

フィッティングOKの場合、操作タグを記憶する(S107)。具体的には、端末装置30は、操作タグの記憶を指示する信号を環境モデリングサーバ10に送信する。操作タグ生成部14は、この信号に応じて、所定のデータ構造を有する操作タグを生成する(図19を用いて後述する)。次に、制御部12は、生成された操作タグを操作タグデータベース13に対して格納処理する。   In the case of fitting OK, the operation tag is stored (S107). Specifically, the terminal device 30 transmits a signal instructing storage of the operation tag to the environment modeling server 10. In response to this signal, the operation tag generation unit 14 generates an operation tag having a predetermined data structure (described later with reference to FIG. 19). Next, the control unit 12 stores the generated operation tag in the operation tag database 13.

図19(a)に示すように、操作タグは、ID、基準位置、操作モデル、固有パラメータから構成される。IDは、各操作タグを識別すための識別値である。基準位置は、操作タグの基準位置を示す(基準位置は、例えば、取っ手の中心、すなわち、円柱プリミティブの中心等の操作モデルの代表点とする)。操作モデルは、図18に模式的に示した操作アイコンに対応し、構造物に対して作業ロボット40が成すべき操作内容の分類を示す。固有パラメータは、図19(a)とは別のテーブルに格納されている。固有パラメータには、関連付けられたテーブルを指定するポインタがセットされている。   As shown in FIG. 19A, the operation tag includes an ID, a reference position, an operation model, and a unique parameter. ID is an identification value for identifying each operation tag. The reference position indicates the reference position of the operation tag (the reference position is a representative point of the operation model such as the center of the handle, that is, the center of the cylindrical primitive, for example). The operation model corresponds to the operation icon schematically shown in FIG. 18, and indicates the classification of the operation content to be performed by the work robot 40 on the structure. The unique parameters are stored in a table different from that in FIG. In the unique parameter, a pointer for specifying the associated table is set.

図19(a)に示すポインタPO1が示すテーブル内容を図19(b)に示す。図19(b)に示すように、固有パラメータは、幾何プリミティブ情報、操作モデル情報を含む。幾何プリミティブ情報は、円柱プリミティブの情報、矩形プリミティブの情報を含む。円柱プリミティブには、その特定データ(位置ベクトル、姿勢ベクトル、円柱の直径、円柱の長さ)が関連づけられている。矩形プリミティブに対しては、円柱プリミティブからの距離、縦幅、横幅が関連づけられている。   FIG. 19B shows the contents of the table indicated by the pointer PO1 shown in FIG. As shown in FIG. 19B, the unique parameter includes geometric primitive information and operation model information. The geometric primitive information includes cylindrical primitive information and rectangular primitive information. Specific data (position vector, posture vector, cylinder diameter, cylinder length) is associated with the cylinder primitive. The rectangular primitive is associated with the distance from the cylindrical primitive, the vertical width, and the horizontal width.

操作モデルは、被操作体に対して作業ロボット40が成すべき操作内容を定義する情報である。図13乃至図17に示す例では、作業ロボット40が取っ手に対して成す操作は、取っ手を引く又は戻す作業である。操作モデル情報は、そのような操作の指定に必要なデータから構成される。好適には、軌道と操作パラメータによって、作業ロボット40の操作内容が定義される。軌道は、初期位置と引き出しベクトルとによって定義される。操作パラメータは、最大操作力により定義される。作業ロボット40による操作動作は、操作モデルに規定されることになる。なお、操作モデルが示す操作内容は、操作モデルの種別により定まるものである。ここでは、操作モデルの種別指定から、所定の操作内容が特定されるものとする。   The operation model is information that defines the operation content to be performed by the work robot 40 on the operated object. In the examples shown in FIGS. 13 to 17, the operation performed by the work robot 40 on the handle is an operation of pulling or returning the handle. The operation model information is composed of data necessary for specifying such an operation. Preferably, the operation content of the work robot 40 is defined by the trajectory and the operation parameters. The trajectory is defined by the initial position and the extraction vector. The operation parameter is defined by the maximum operation force. The operation operation by the work robot 40 is defined in the operation model. The operation content indicated by the operation model is determined by the type of operation model. Here, it is assumed that predetermined operation content is specified from the operation model type designation.

図19に示したデータは、図20に模式的に表現することが可能である。操作タグの基準位置は、T1に対応する。円柱プリミティブの直径cd、長さdl、矩形プリミティブの縦幅ra、横幅rbは、図20に示すとおりである。円柱プリミティブからの矩形プリミティブの間隔r1も、図20に示すとおりである。円柱プリミティブの位置ベクトルは、例えば、空間内における操作タグの基準位置からみた円柱の中心(幾何的中心)により指定される。なお、円柱プリミティブの位置、姿勢の特定方法は任意であり、この例にかぎられるべきものではない。操作モデルの軌道の初期位置は、点SPに示すとおりであり、終点位置は、点EPに示すとおりである。軌道の初期位置及び終点位置は、基準位置からみた座標値により示される。初期位置SPと終点位置EPとを結んだベクトルL1は、被操作体の操作方向を示す。操作の最大操作力は、被操作体の重量に応じて適宜設定されるべきものである。   The data shown in FIG. 19 can be schematically represented in FIG. The reference position of the operation tag corresponds to T1. The diameter cd and length dl of the cylindrical primitive, and the vertical width ra and horizontal width rb of the rectangular primitive are as shown in FIG. The interval r1 between the rectangular primitives from the cylindrical primitives is also as shown in FIG. The position vector of the cylinder primitive is specified by, for example, the center (geometric center) of the cylinder viewed from the reference position of the operation tag in the space. Note that the method for specifying the position and orientation of the cylindrical primitive is arbitrary, and should not be limited to this example. The initial position of the trajectory of the operation model is as indicated by the point SP, and the end point position is as indicated by the point EP. The initial position and end position of the trajectory are indicated by coordinate values viewed from the reference position. A vector L1 connecting the initial position SP and the end position EP indicates the operation direction of the operated object. The maximum operating force for the operation should be appropriately set according to the weight of the operated object.

次に、データベースに登録された操作タグアイコンを表示する(S108)。端末装置30は、図17に模式的に示すように、幾何プリミティブの表示を停止し、構造物に対して操作タグが割り当てられていることを示す操作タグアイコンを表示する。その後、適宜、ステップS100に戻り、他の被操作体に対する操作タグのセット動作が繰り返される。   Next, the operation tag icon registered in the database is displayed (S108). As schematically illustrated in FIG. 17, the terminal device 30 stops displaying the geometric primitive and displays an operation tag icon indicating that an operation tag is assigned to the structure. Thereafter, the process returns to step S100 as appropriate, and the operation tag setting operation for other objects to be operated is repeated.

制御部12は、操作タグデータベース13への操作タグの登録後、操作タグの位置を示すデータを端末装置30に転送する。表示画像生成部33は、仮想画像生成部33bに対して、操作タグの位置を示すデータから特定される位置に操作タグアイコンが配置された画像を生成させる。表示画像生成部33は、合成画像生成部33cに対して、操作タグアイコンが表示された画像をキャプチャ画像に対して合成処理させる。表示部36は、合成画像生成部33cにより生成された合成画像を表示する。   After registering the operation tag in the operation tag database 13, the control unit 12 transfers data indicating the position of the operation tag to the terminal device 30. The display image generation unit 33 causes the virtual image generation unit 33b to generate an image in which the operation tag icon is arranged at a position specified from data indicating the position of the operation tag. The display image generation unit 33 causes the composite image generation unit 33c to perform a composite process on the captured image with the image on which the operation tag icon is displayed. The display unit 36 displays the composite image generated by the composite image generation unit 33c.

なお、上述の場合、円柱プリミティブと、矩形プリミティブとを用いて、構造物に対する幾何プリミティブの適応を実行したが、被操作体に対して適応される幾何プリミティブの種類は任意である。   In the above case, the geometric primitive is applied to the structure using the cylindrical primitive and the rectangular primitive. However, the type of the geometric primitive applied to the operation target is arbitrary.

図21(a)は、被操作体がボタンの場合を示す。この場合には、円柱プリミティブを用いずに、矩形プリミティブのみを用いる。同図に模式的に示すように、操作の始点/終点、操作ベクトル等によって、操作動作が定義される。   FIG. 21A shows a case where the operated body is a button. In this case, only rectangular primitives are used without using cylindrical primitives. As schematically shown in the figure, an operation action is defined by an operation start / end point, an operation vector, and the like.

図21(b)は、被操作体が扉の場合を示す。この場合には、上記例と同様、円柱プリミティブと矩形プリミティブを扉に対して適応させる。被操作体が異なるため、円柱プリミティブの姿勢は、上記例とは異なるように設定される。また、操作動作も、異なるように定義される。   FIG. 21B shows a case where the operated body is a door. In this case, as in the above example, the cylinder primitive and the rectangle primitive are adapted to the door. Since the object to be operated is different, the posture of the cylindrical primitive is set to be different from the above example. Also, the operation is defined differently.

図22のフローチャートを参照して、上述のように設定した操作タグのプロパティ―変更手順について説明する。図23乃至図26も併せて参照して説明する。操作タグのプロパティ―変更とは、操作タグから特定される操作モデルの具体値等を変更することを意味する。操作モデルの具体的値は、指定の手間を省くため、操作タグの生成時に適当なデフォルト値が割り当てられているが、プロパティ―変更によって、個別に設定内容を修正し、所定の構造物に対する操作内容を最適化することが可能になる。   With reference to the flowchart of FIG. 22, the property-change procedure of the operation tag set as described above will be described. This will be described with reference to FIGS. The operation tag property-change means changing a specific value or the like of the operation model specified from the operation tag. The specific values of the operation model are assigned appropriate default values when generating operation tags in order to save the time and effort to specify them. The content can be optimized.

まず、被操作体を表示する(S200)。この動作は、上述のS100と同様である。   First, an object to be operated is displayed (S200). This operation is the same as S100 described above.

次に、位置姿勢データの取得/送信を実行する(S201)。具体的には、端末装置30は、自身の現在位置を示す情報を取得し、これを環境モデリングサーバ10へ送信する。   Next, acquisition / transmission of position and orientation data is executed (S201). Specifically, the terminal device 30 acquires information indicating its current position and transmits it to the environment modeling server 10.

次に、操作タグのダウンロードが実行される(S202)。具体的には、環境モデリングサーバ10は、受信した位置データの近傍に位置する操作タグを特定し、特定された操作タグを端末装置30に送信する。好適には、環境モデリングサーバ10の制御部12は、操作タグデータベース13に対して、端末装置30から受信した位置データの所定範囲内に存在する操作タグを出力させる。制御部12は、操作タグデータベース13から出力された操作タグを、端末装置30に対して通信部11を介して送信する。なお、図19に示したデータ構造を有するデータを単に"操作タグ"と簡略説明する場合があることは上述したとおりである。   Next, the operation tag is downloaded (S202). Specifically, the environment modeling server 10 specifies an operation tag located in the vicinity of the received position data, and transmits the specified operation tag to the terminal device 30. Preferably, the control unit 12 of the environment modeling server 10 causes the operation tag database 13 to output operation tags that exist within a predetermined range of position data received from the terminal device 30. The control unit 12 transmits the operation tag output from the operation tag database 13 to the terminal device 30 via the communication unit 11. As described above, data having the data structure shown in FIG. 19 may be simply described as “operation tag”.

次に、合成画像を生成する(S203)。端末装置30は、まず、環境モデリングサーバ10から受信した操作タグ(ID、基準位置、操作モデル、固有パラメータ(各プリミティブの位置姿勢パラメータ、形状パラメータ、操作モデルの内容))を一時的にバッファする。制御部32は、操作タグの位置を示す位置データを表示画像生成部33に供給する。表示画像生成部33は、仮想画像生成部33bに対して、その位置データが示す位置に操作タグアイコンが配置された仮想画像を生成するように指示する。表示画像生成部33は、合成画像生成部33cに対して、現在撮影表示される画像と、仮想画像生成部33bにより生成される仮想画像とに基づいて合成画像を生成することを指示する。表示部36は、合成画像生成部33cにより合成された合成画像を表示する。このようにして、図23に示すように、端末装置30によりユーザーに提示される現在ビューに対して操作タグアイコンが重畳表示される。   Next, a composite image is generated (S203). First, the terminal device 30 temporarily buffers the operation tag (ID, reference position, operation model, unique parameter (position / orientation parameter, shape parameter, operation model content of each primitive)) received from the environment modeling server 10. . The control unit 32 supplies position data indicating the position of the operation tag to the display image generation unit 33. The display image generation unit 33 instructs the virtual image generation unit 33b to generate a virtual image in which the operation tag icon is arranged at the position indicated by the position data. The display image generation unit 33 instructs the composite image generation unit 33c to generate a composite image based on the currently captured and displayed image and the virtual image generated by the virtual image generation unit 33b. The display unit 36 displays the synthesized image synthesized by the synthesized image generation unit 33c. In this way, as shown in FIG. 23, the operation tag icon is superimposed on the current view presented to the user by the terminal device 30.

次に、操作タグアイコンの長押し有りか否かを判定する(S204)。端末装置30は、ユーザーによるタッチパネルの操作によって、操作タグアイコンがユーザーによって所定時間以上押されたか否かを検知する。例えば、2秒〜3秒程度の時間を閾値として用いる。詳細には、制御部32は、指示入力部37の入力に基づいて、操作タグアイコンが表示されている箇所に対してユーザーの指が所定時間以上配置されたか否かを判定する。   Next, it is determined whether or not the operation tag icon is pressed long (S204). The terminal device 30 detects whether or not the operation tag icon has been pressed by the user for a predetermined time or more by the operation of the touch panel by the user. For example, a time of about 2 seconds to 3 seconds is used as the threshold value. Specifically, based on the input from the instruction input unit 37, the control unit 32 determines whether or not the user's finger has been placed for a predetermined time or more at the location where the operation tag icon is displayed.

操作タグアイコンの長押し有りの場合、操作タグのプロパティ表示が実行される(S205)。具体的には、端末装置30は、所定時間以上、ユーザーの指が操作タグアイコン上に配置されたことを検出すると、選択された操作タグに対して関連付けられているプロパティ―を表示する。制御部32は、長押しの検出に応じて、表示画像生成部33に対してプロパティ―画面が付加された画像の生成を指示する。表示画像生成部33は、メニュー生成部33aに対してプロパティ―画面の生成を指示し、合成画像生成部33cに対して現在の撮影画像に対してプロパティ―画面を付加した画像を生成させる。   If there is a long press of the operation tag icon, the property display of the operation tag is executed (S205). Specifically, when it is detected that the user's finger is placed on the operation tag icon for a predetermined time or longer, the terminal device 30 displays a property associated with the selected operation tag. In response to detection of the long press, the control unit 32 instructs the display image generation unit 33 to generate an image with the property-screen added. The display image generation unit 33 instructs the menu generation unit 33a to generate a property-screen, and causes the composite image generation unit 33c to generate an image with the property-screen added to the current captured image.

プロパティ―として表示される具体的情報は、好適には、操作モデルの内容又はこれから算出される情報である。例えば、図24に示すように、図19に示した固有パラメータ(軌道:初期位置;終点位置)から算出される開き幅が表示される。また、図19に示した操作モデルの固有パラメータ(最大操作力)が表示される。   The specific information displayed as the property is preferably the content of the operation model or information calculated therefrom. For example, as shown in FIG. 24, the opening width calculated from the unique parameters (trajectory: initial position; end point position) shown in FIG. 19 is displayed. Further, the unique parameter (maximum operating force) of the operation model shown in FIG. 19 is displayed.

次に、プロパティ情報の変更指示が入力される(S206)。例えば、端末装置30は、最大操作力の表示箇所に対してユーザーの指がタッチしたことを検出すると、図25に示すような値変更画面をユーザーに提示する。具体的には、端末装置30は、最大操作力の表示枠を点灯表示し、かつ、値を入力するためのキーボードを表示する。これらの表示制御は、例えば、制御部32が、表示画像生成部33に対して適切な指令を与えることで実行される。一例としては、表示画像生成部33は、メニュー生成部33aに対してキーボード表示の生成を指示し、合成画像生成部33cに対してキーボード表示を現在ビューに対して組み込ませることを指示する。これによって、パラメータ変更が入力可能な状態となる。ユーザーは、表示されたキーボードをタッチして、最大操作力の値を変更する。変更値は、制御部32によって一時的に保持される。ユーザーによるキーボードの入力に応じて、表示部36の画面は、図25から図26に示す表示となる。   Next, a property information change instruction is input (S206). For example, when the terminal device 30 detects that the user's finger has touched the display position of the maximum operating force, the terminal device 30 presents a value change screen as shown in FIG. Specifically, the terminal device 30 lights up and displays a display frame of the maximum operating force and displays a keyboard for inputting a value. These display controls are executed, for example, when the control unit 32 gives an appropriate command to the display image generation unit 33. As an example, the display image generation unit 33 instructs the menu generation unit 33a to generate a keyboard display, and instructs the composite image generation unit 33c to incorporate the keyboard display into the current view. As a result, a parameter change can be input. The user touches the displayed keyboard to change the value of the maximum operating force. The changed value is temporarily held by the control unit 32. Depending on the keyboard input by the user, the screen of the display unit 36 is displayed as shown in FIGS.

次に、変更値の反映準備を実行する(S207)。具体的には、端末装置30は、操作タグID、及び変更値等を環境モデリングサーバ10に対して送信する。環境モデリングサーバ10は、端末装置30からの受信データに基づいて、新たな変更値を操作タグデータベース13に格納等する。なお、実際の書き換え処理は、更新の確定を待って行われる。従って、変更値は、一時的に、データベースの空き容量にバッファされることになる。   Next, preparation for reflecting the changed value is executed (S207). Specifically, the terminal device 30 transmits an operation tag ID, a change value, and the like to the environment modeling server 10. The environment modeling server 10 stores a new change value in the operation tag database 13 based on the received data from the terminal device 30. The actual rewriting process is performed after the update is confirmed. Therefore, the changed value is temporarily buffered in the free space of the database.

次に、変更の確認/実行が行われる(S208)。具体的には、環境モデリングサーバ10は、端末装置30に対して更新準備完了を示す信号を送信する。端末装置30は、環境モデリングサーバ10からの信号受信に応じて、ユーザーによって入力された更新値をユーザーに対して表示する。例えば、端末装置30は、変更がなされた図26に示す枠を点灯表示する。更新値が正しければ、ユーザーは、操作プロパティ―の表示部分以外の部分を指タッチする。これによって、更新が確定される。具体的には、制御部12は、操作プロパティ―の表示部分以外の部分を指タッチの検出を指示入力部37の出力から検知し、更新値が承認されたことを環境モデリングサーバ10に対して通知する。環境モデリングサーバ10は、この通知に応じて、実際に値を書き換える処理を実行する。このようにしてプロパティ―値(本例では、図19(b)に示した最大操作力)が更新される。更新内容に誤りがある場合、ユーザーは、再度、変更作業を繰り返すことになる。   Next, confirmation / execution of the change is performed (S208). Specifically, the environment modeling server 10 transmits a signal indicating completion of update preparation to the terminal device 30. The terminal device 30 displays the updated value input by the user to the user in response to the signal reception from the environment modeling server 10. For example, the terminal device 30 lights up and displays the frame shown in FIG. 26 in which the change has been made. If the updated value is correct, the user touches the part other than the display part of the operation property. This confirms the update. Specifically, the control unit 12 detects the finger touch detection in the part other than the display part of the operation property from the output of the instruction input unit 37, and notifies the environment modeling server 10 that the updated value is approved. Notice. In response to this notification, the environment modeling server 10 executes a process of actually rewriting the value. In this way, the property value (in this example, the maximum operating force shown in FIG. 19B) is updated. When there is an error in the update contents, the user repeats the change work again.

上述の作業を繰り返すことによって、図27に模式的に示すように、作業ロボット40の導入空間に配置されている構造物に対して仮想的に操作タグが付与される。   By repeating the above-described operation, an operation tag is virtually attached to the structure arranged in the introduction space of the work robot 40 as schematically shown in FIG.

図28のフローチャートを参照して、環境モデリングサーバ10の操作タグデータベース13に格納された操作タグを活用して作業ロボット40に対して操作指示する手順について説明する。図29乃至図33も併せて参照して説明する。なお、図29乃至図33に示す画像は、端末装置30に表示されるものであるが、作業ロボット40によって取得された画像に基づいて生成された画像である。図28に示すフローチャートは、導入空間に対して作業ロボット40が配置され、ユーザーが作業ロボット40の取得画像を端末装置30を介して見ている状態が前提となっている。なお、これらの前提事項は、あくまで本発明の一態様であり、この開示に基づいて本願発明の技術的範囲が狭く解釈されることは許されない。   With reference to the flowchart of FIG. 28, a procedure for operating the work robot 40 using the operation tags stored in the operation tag database 13 of the environment modeling server 10 will be described. This will be described with reference to FIGS. The images shown in FIGS. 29 to 33 are displayed on the terminal device 30, but are generated based on the image acquired by the work robot 40. The flowchart shown in FIG. 28 is based on the premise that the work robot 40 is arranged in the introduction space and the user is viewing the acquired image of the work robot 40 through the terminal device 30. Note that these assumptions are merely one aspect of the present invention, and the technical scope of the present invention is not allowed to be narrowly interpreted based on this disclosure.

まず、被操作体の表示が実行される(S300)。作業ロボット40が取得した映像は、無線ネットワーク20を介して端末装置30へ転送され、端末装置30によって表示される。図9に模式的に示したように、作業ロボット40は、内蔵カメラで取得した画像を通信回線を介して端末装置30に対して供給可能に構成されている。なお、作業ロボット40と端末装置30間のデータ転送は、環境モデリングサーバ10を介在して実行されても良い。   First, the display of the operated object is executed (S300). The video acquired by the work robot 40 is transferred to the terminal device 30 via the wireless network 20 and displayed by the terminal device 30. As schematically illustrated in FIG. 9, the work robot 40 is configured to be able to supply an image acquired by the built-in camera to the terminal device 30 via a communication line. The data transfer between the work robot 40 and the terminal device 30 may be executed via the environment modeling server 10.

次に、位置姿勢データの取得/送信が実行される(S301)。作業ロボット40は、作業ロボット40自身の現在位置を示す位置姿勢データを取得し、これを環境モデリングサーバ10に対して送信する。環境モデリングサーバ10は、作業ロボット40の現在位置に基づいて、その周囲に存在する操作タグを特定する。   Next, acquisition / transmission of position and orientation data is executed (S301). The work robot 40 acquires position and orientation data indicating the current position of the work robot 40 itself, and transmits this to the environment modeling server 10. Based on the current position of the work robot 40, the environment modeling server 10 identifies operation tags that exist around it.

次に、操作タグのダウンロードが実行される(S302)。環境モデリングサーバ10は、無線ネットワーク20を介して、特定した操作タグを端末装置30へ送信する。   Next, the operation tag is downloaded (S302). The environment modeling server 10 transmits the identified operation tag to the terminal device 30 via the wireless network 20.

次に、合成画像の生成をする(S303)。端末装置30は、環境モデリングサーバ10からダウンロードした操作タグに基づいて、図29に示すように、作業ロボット40から転送される現在ビューに対して操作タグアイコンが組み込まれたビューを生成して表示する(図29参照)。   Next, a composite image is generated (S303). Based on the operation tag downloaded from the environment modeling server 10, the terminal device 30 generates and displays a view in which the operation tag icon is incorporated with respect to the current view transferred from the work robot 40, as shown in FIG. (See FIG. 29).

次に、操作タグアイコンの選択の有無が判断される(S304)。端末装置30は、指示入力部37の出力に基づいて、操作タグアイコンの表示部分に対してユーザーの指がタッチしたか否かを判定する。   Next, it is determined whether or not an operation tag icon has been selected (S304). Based on the output of the instruction input unit 37, the terminal device 30 determines whether or not the user's finger has touched the display portion of the operation tag icon.

操作タグアイコンの表示部分に対してユーザーの指がタッチすると、操作メニューが表示される(S305)。端末装置30は、ユーザーによる指タッチに応じて操作メニューを表示する(図30参照)。端末装置30によって表示される操作メニューの内容は、ユーザーによって選択された操作タグに関連付けられた操作モデルの内容に応じたものである。取っ手91aに割り当てられた動作モデルは、図18(a)に示すモデルであり、これに対応した情報(掴む/離す、開ける/閉じる)が表示される。   When the user's finger touches the display portion of the operation tag icon, an operation menu is displayed (S305). The terminal device 30 displays an operation menu in response to a finger touch by the user (see FIG. 30). The content of the operation menu displayed by the terminal device 30 corresponds to the content of the operation model associated with the operation tag selected by the user. The motion model assigned to the handle 91a is the model shown in FIG. 18A, and information corresponding to the model (gripping / releasing, opening / closing) is displayed.

次に、操作内容が選択される(S306)。ユーザーは、表示された操作メニューから所望の動作内容を提示する領域をタッチする。例えば、ユーザーは、表示された操作メニューのうち掴むという操作アイコンを指定する(図30参照)。これに応じて、端末装置30は、ユーザーにより選択された動作内容を検出する。   Next, the operation content is selected (S306). The user touches an area where desired operation content is presented from the displayed operation menu. For example, the user designates an operation icon to be grabbed in the displayed operation menu (see FIG. 30). In response to this, the terminal device 30 detects the operation content selected by the user.

次に、操作内容が指示される(S307)。端末装置30は、ユーザーにより入力された指示内容を、無線ネットワーク20を介して作業ロボット40へ送信する。端末装置30から作業ロボット40へのデータ転送は、環境モデリングサーバ10を介して実行されても良い点は上述したとおりである。   Next, an operation content is instructed (S307). The terminal device 30 transmits the instruction content input by the user to the work robot 40 via the wireless network 20. Data transfer from the terminal device 30 to the work robot 40 may be executed via the environment modeling server 10 as described above.

次に、操作内容が実行される(S308)。作業ロボット40は、受信した操作指示に応じた操作内容を実行する。作業ロボット40は、掴むという指令に応じて、作業ロボット40の目標姿勢を算出し、現在姿勢を目標姿勢へ変化させる。これによって、図31に示すように、作業ロボット40が取っ手91aを把持した状態となる。   Next, the operation content is executed (S308). The work robot 40 executes the operation content according to the received operation instruction. The work robot 40 calculates the target posture of the work robot 40 in response to a command to grab, and changes the current posture to the target posture. As a result, as shown in FIG. 31, the work robot 40 is in a state of gripping the handle 91a.

作業ロボット40の姿勢変化制御は、制御部42が、駆動制御部45を制御することによって実行される。駆動制御部45は、制御部42から伝達される制御指示に応じて、アクチュエータ等を実際に駆動制御する。   The posture change control of the work robot 40 is executed by the control unit 42 controlling the drive control unit 45. The drive control unit 45 actually drives and controls the actuator and the like according to the control instruction transmitted from the control unit 42.

次に、端末装置30は、次操作指示有りか否かを判断する(S309)。端末装置30は、ユーザーによる次操作指示が有る場合、ステップS306〜S308を再度繰り返す。   Next, the terminal device 30 determines whether or not there is a next operation instruction (S309). When there is a next operation instruction from the user, the terminal device 30 repeats steps S306 to S308 again.

次サイクルにおいて、操作指示の選択が実行される(S306)。図31に示す状態が端末装置30に表示されると、ユーザーは、開ける/閉じるという操作アイコンを選択する。端末装置30は、図33に模式的に示すように、開ける/閉じる動作を定義づけるためのベクトルをユーザーに対して提示する。ユーザーは、取っ手91aをどの程度まで開くのかを指示するため、操作タグが表示された部分からベクトル上を指でなぞる。取っ手91aの移動が停止する位置において、ユーザーは、タッチパネル上から指を離す。これによって、端末装置30には、取っ手91aの移動の終点位置を検出することができる。   In the next cycle, an operation instruction is selected (S306). When the state shown in FIG. 31 is displayed on the terminal device 30, the user selects an operation icon of opening / closing. As schematically shown in FIG. 33, the terminal device 30 presents a vector for defining an opening / closing operation to the user. In order to instruct how far the handle 91a is to be opened, the user traces the vector with a finger from the portion where the operation tag is displayed. At the position where the movement of the handle 91a stops, the user releases his / her finger from the touch panel. Thereby, the terminal device 30 can detect the end point position of the movement of the handle 91a.

次に、端末装置30から作業ロボット40へ操作内容が転送される。次に、作業ロボット40は、受信した指示内容に応じた作業を実行する。このようなサイクルを繰り返すことによって、多段階的に、タンスの引き出しを開ける作業が実行される。また、ユーザがタッチパネルから指を離す前のドラッグ操作を逐一作業ロボットへ転送することで連続的に引き出しを開ける作業を実行させることもできる。   Next, the operation content is transferred from the terminal device 30 to the work robot 40. Next, the work robot 40 performs work according to the received instruction content. By repeating such a cycle, the operation of opening the drawer for the chest is performed in multiple stages. Moreover, the operation | work which opens a drawer continuously can also be performed by transferring the drag operation before a user lifts a finger | toe from a touch panel to a work robot one by one.

上述の説明では、円柱プリミティブと矩形プリミティブを活用して構造物の3次元形状を把握したが、幾何プリミティブの種類は任意である。図34に幾何プリミティブ例を示す。幾何プリミティブの具体的な形状は任意であり、図34(a)〜(f)に例示するような幾何形状を採用することができる。図34(a)は、点プリミティブである。図34(b)は、線プリミティブである。図34(c)は、矩形プリミティブである。図34(d)は、円柱プリミティブである。図34(e)は、立体プリミティブである。図34(f)は、2面プリミティブである。   In the above description, the three-dimensional shape of the structure is grasped by using the cylindrical primitive and the rectangular primitive, but the type of the geometric primitive is arbitrary. FIG. 34 shows an example of geometric primitives. The specific shape of the geometric primitive is arbitrary, and a geometric shape illustrated in FIGS. 34A to 34F can be adopted. FIG. 34A shows a point primitive. FIG. 34B shows a line primitive. FIG. 34C shows a rectangular primitive. FIG. 34D shows a cylindrical primitive. FIG. 34E shows a three-dimensional primitive. FIG. 34 (f) shows a two-sided primitive.

上述の説明から明らかなように、本実施形態では、各構造物に対して仮想的に操作タグが付与され、各構造物に対して成す作業ロボットの操作内容は、操作対象の構造物に対して事前設定された操作タグに基づいて実行される。操作タグは、被操作体の位置を示すデータ、その被操作体の3次元計測により取得した立体画像に対して幾何プリミティブを適応させて得られるデータ、およびその被操作体に対して成すべき操作内容を示すデータを含む。操作タグの設定自体は、システムを購入したユーザー側にて任意に行うことができるため、作業ロボットが導入される環境のモデル化の負担を大きく低減することが可能になる。また、幾何プリミティブの適応によって操作対象物の幾何特性を検知することができるため、大きさ、形状、場所等の異なる様々な構造物に対して同種の操作を実現可能になる。   As is clear from the above description, in this embodiment, operation tags are virtually assigned to each structure, and the operation content of the work robot performed on each structure is the same as the operation target structure. And executed based on the preset operation tag. The operation tag includes data indicating the position of the operated object, data obtained by applying a geometric primitive to a stereoscopic image acquired by three-dimensional measurement of the operated object, and an operation to be performed on the operated object. Contains data indicating content. The setting of the operation tag itself can be arbitrarily performed by the user who purchased the system, so that the burden of modeling the environment in which the work robot is introduced can be greatly reduced. In addition, since the geometric characteristics of the operation target can be detected by applying the geometric primitive, the same kind of operation can be realized for various structures having different sizes, shapes, places, and the like.

実施の形態2
図35乃至図40を参照して本発明の実施の形態2について説明する。本実施形態では、実施の形態1の手順に加えて、操作タグが付与される構造物の周辺に存在する幾何特徴(特徴)を抽出して、この幾何特徴を空間的に特定するデータを操作タグ内に記憶する。操作タグは、登録された幾何特徴を空間的に特定するデータ(以下、特徴特定データと呼ぶ場合がある)を包含する。その後、同構造物に対して操作タグを重畳表示する際、過去に登録された幾何特徴を、現在取得した幾何特徴に対してフィッティングする。操作タグ内では、登録済みの位置データの相対的な関係が記憶されているため、過去に登録された幾何特徴に対して現在の幾何特徴をフィッティングすることで、今、表示すべき情報の表示位置が定まる。例えば、操作タグを重畳表示する際に、位置データ取得時の誤差(端末装置30の位置姿勢等)や表示時の誤差(端末装置或いはロボットの位置姿勢等)によって操作対象と操作タグの表示にずれが生じる。しかし、ある構造物に対して付与される操作タグ内に、その構造物の周囲にある幾何特徴の空間位置を盛り込むことによって、表示されるべき情報の位置を修正した状態でその情報を表示することが可能になる。また、操作によって可動する構造物(半開きの扉等)のように、その軌道上ではあるがデータ記録時とは異なる場所に位置することもある。そのような場合、記録されたタグ位置から軌道に沿って、幾何学特徴の探索範囲を広げることで効率良くフィッティングを実施可能となる。これによって、より的確な表示をユーザーに対して提示することが可能になる。また、構造物の位置の変動を吸収することが可能になる。なお、抽出される特徴の種類は任意であり、幾何的な特徴に限らず、周囲に存在する物の色等であっても構わない。
Embodiment 2
A second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, in addition to the procedure of the first embodiment, a geometric feature (feature) existing around the structure to which the operation tag is attached is extracted, and data for spatially specifying the geometric feature is manipulated. Store in the tag. The operation tag includes data for spatially specifying a registered geometric feature (hereinafter sometimes referred to as feature specifying data). Thereafter, when the operation tag is superimposed and displayed on the structure, a geometric feature registered in the past is fitted to the currently acquired geometric feature. Since the relative relationship of the registered position data is stored in the operation tag, it is possible to display the information to be displayed now by fitting the current geometric feature to the geometric feature registered in the past. The position is fixed. For example, when the operation tag is displayed in a superimposed manner, the operation target and the operation tag are displayed depending on an error at the time of position data acquisition (position and orientation of the terminal device 30) and an error at the time of display (position and orientation of the terminal device or robot). Deviation occurs. However, by including the spatial position of the geometric feature around the structure in the operation tag given to the structure, the information is displayed with the position of the information to be displayed corrected. It becomes possible. Moreover, it may be located on a different place from the time of data recording, such as a structure (such as a half-open door) that is movable by an operation, but on the track. In such a case, fitting can be performed efficiently by expanding the search range of the geometric feature along the trajectory from the recorded tag position. This makes it possible to present a more accurate display to the user. Moreover, it becomes possible to absorb the fluctuation | variation of the position of a structure. Note that the type of feature to be extracted is arbitrary, and is not limited to a geometric feature, and may be the color of an object existing around the feature.

図35に示すように、環境モデリングサーバ10は、周辺特徴抽出部16、特徴フィッティング実行部17を有する。周辺特徴抽出部16は、図36に模式的に示すように、キャプチャ画像に対して画像処理によって、取っ手91aと取っ手91aの取り付け面との間にある任意の種類と数の幾何特徴SL1〜SL4を抽出する。周辺特徴抽出部16は、図37に模式的に示すように、キャプチャ画像内において抽出された幾何特徴位置を操作タグデータベースに格納する。幾何特徴SL1、SL3は、円柱面によって位置、姿勢、直径、及び長さが特定される。幾何特徴SL2、SL4は、円弧エッジによって、中心、半径、傾き、始点終点角度が特定される。なお、操作タグには、特徴画像として、特徴的な画像部分のピクセルデータも格納可能に構成されている。このようにして過去の時点において、抽出された特徴の空間的な位置が操作タグ内に記憶される。   As illustrated in FIG. 35, the environment modeling server 10 includes a peripheral feature extraction unit 16 and a feature fitting execution unit 17. As schematically shown in FIG. 36, the peripheral feature extraction unit 16 performs any kind and number of geometric features SL1 to SL4 between the handle 91a and the attachment surface of the handle 91a by image processing on the captured image. To extract. As schematically shown in FIG. 37, the peripheral feature extraction unit 16 stores the geometric feature position extracted in the captured image in the operation tag database. The geometric features SL1 and SL3 are specified in position, posture, diameter, and length by a cylindrical surface. In the geometric features SL2 and SL4, the center, the radius, the inclination, and the start point end point angle are specified by the arc edge. The operation tag is configured to be able to store pixel data of a characteristic image portion as a characteristic image. In this way, the spatial position of the extracted feature is stored in the operation tag at the past time point.

その後、周辺特徴抽出部16は、同構造物に対して操作タグを表示させる際、同様に、同構造物の周囲にある幾何特徴を抽出する。特徴フィッティング実行部17は、今回抽出された幾何特徴に対して過去の幾何特徴をフィッティングさせる。これによって、操作タグに格納された他の位置データ(図19(a)に示す基準位置、図19(b)に示される初期位置等)の表示位置を実際の操作対象物に対してより精度良く位置決め可能となる。これによって、操作タグ内に登録された位置データの誤差や端末或いはロボットの位置姿勢計測誤差等に依存することなく、適切な表示位置にて情報をユーザーに提示することが可能になる。   Thereafter, when the operation feature is displayed on the structure, the peripheral feature extraction unit 16 similarly extracts the geometric features around the structure. The feature fitting execution unit 17 fits the past geometric feature to the geometric feature extracted this time. As a result, the display position of other position data stored in the operation tag (the reference position shown in FIG. 19A, the initial position shown in FIG. 19B, etc.) is more accurate than the actual operation target. Good positioning is possible. As a result, it is possible to present information to the user at an appropriate display position without depending on an error in position data registered in the operation tag, a position or orientation measurement error of the terminal or robot, or the like.

図38に示すように、S106のステップによりフィッティングOKが判定されると、上述のように、特徴の抽出をする(S109)。次に、上述のように、抽出された特徴の空間位置を特定するためのデータも含めて操作タグを記憶する(S107)。   As shown in FIG. 38, when fitting OK is determined in step S106, the feature is extracted as described above (S109). Next, as described above, the operation tag is stored including the data for specifying the spatial position of the extracted feature (S107).

図39に示すように、端末装置30に対して操作タグ内に包含される位置データに基づいた情報を提示する場合、まず、周辺の幾何特徴の抽出を行う(S201)。次に、現在ビューに表示されるべき操作タグを検索する(S202)。次に、検索により得られた操作タグの幾何特徴を、S201によって得られた幾何特徴に対してフィッティングする(S203)。次に、フィッティングにより特定される位置姿勢と操作タグの幾何プリミティブとの相対関係の記録データから操作タグの幾何プリミティブの位置姿勢を修正して情報を表示する(S204)。このようにして、新旧の特徴の空間的な位置のフィッティングから情報の表示位置精度をより高めることができる。これにより、適当な位置に情報を提示することが可能になる。フィッティングから得られる位置に基づいて、データベースにある操作タグ内の位置データの値を修正しても良い。このような修正作業を繰り返すことによって、操作タグ内の位置データの精度を高めることが可能になる。   As shown in FIG. 39, when the information based on the position data included in the operation tag is presented to the terminal device 30, first, the surrounding geometric features are extracted (S201). Next, an operation tag to be displayed in the current view is searched (S202). Next, the geometric feature of the operation tag obtained by the search is fitted to the geometric feature obtained in S201 (S203). Next, the position and orientation of the geometric primitive of the operation tag is corrected from the recording data of the relative relationship between the position and orientation specified by the fitting and the geometric primitive of the operation tag, and information is displayed (S204). In this way, it is possible to further improve the information display position accuracy from the spatial position fitting of the old and new features. This makes it possible to present information at an appropriate position. The position data value in the operation tag in the database may be corrected based on the position obtained from the fitting. By repeating such correction work, it is possible to improve the accuracy of the position data in the operation tag.

図40に模式的に示すように、被操作体が図18(d)に示すものであれば、その周囲に存在する枠のエッジを特徴点として抽出するとよい。   As schematically shown in FIG. 40, if the object to be operated is the one shown in FIG. 18D, the edge of the frame existing around it may be extracted as the feature point.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、端末装置30の機能と作業ロボット40の機能とを部分的に共通化しても良い。端末装置30の具体的な形状は任意である。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the function of the terminal device 30 and the function of the work robot 40 may be partially shared. The specific shape of the terminal device 30 is arbitrary.

100 システム

10 環境モデリングサーバ
11 通信部
12 制御部
13 操作タグデータベース
14 操作タグ生成部
15 フィッティング実行部
16 周辺特徴抽出部
17 特徴フィッティング実行部
20 無線ネットワーク
30 端末装置
31 通信部
32 制御部
33 表示画像生成部
36 表示部
37 指示入力部
38 3D画像取得部
39 位置姿勢情報取得部

40 作業ロボット
41 通信部
42 制御部
43 画像取得部
44 位置姿勢情報取得部
45 駆動制御部
90 構造物
100 system

DESCRIPTION OF SYMBOLS 10 Environment modeling server 11 Communication part 12 Control part 13 Operation tag database 14 Operation tag production | generation part 15 Fitting execution part 16 Peripheral feature extraction part 17 Feature fitting execution part 20 Wireless network 30 Terminal device 31 Communication part 32 Control part 33 Display image generation part 36 Display unit 37 Instruction input unit 38 3D image acquisition unit 39 Position and orientation information acquisition unit

40 work robot 41 communication unit 42 control unit 43 image acquisition unit 44 position and orientation information acquisition unit 45 drive control unit 90 structure

Claims (13)

被操作体の計測により得られる立体像に対して幾何プリミティブを適応させて前記被操作体の幾何的特性を示す幾何情報を生成し、
前記幾何情報の生成対象である前記被操作体の空間位置を示す位置情報を取得し、
前記被操作体に対して作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する、操作環境モデル構築システム。
Applying geometric primitives to the stereoscopic image obtained by measurement of the operated object to generate geometric information indicating the geometric characteristics of the operated object,
Obtaining position information indicating a spatial position of the object to be operated which is a generation target of the geometric information;
An operation environment model construction system that stores operation information indicating operation contents to be performed on the object to be operated by a work robot in association with the generated geometric information and the acquired position information.
前記被操作体の幾何的特性は、前記立体像に対する複数の前記幾何プリミティブの適応によって表現されることを特徴とする請求項1に記載の操作環境モデル構築システム。   The operating environment model construction system according to claim 1, wherein the geometric characteristic of the object to be operated is expressed by adaptation of a plurality of the geometric primitives to the stereoscopic image. 前記幾何情報は、前記立体像に対して適応された複数の前記幾何プリミティブの形状を示す情報を含むことを特徴とする請求項1又は2に記載の操作環境モデル構築システム。   The operation environment model construction system according to claim 1, wherein the geometric information includes information indicating shapes of the plurality of geometric primitives adapted to the stereoscopic image. 前記幾何情報は、前記立体像に対して適応された複数の前記幾何プリミティブの位置を示す情報を含むことを特徴とする請求項1乃至3のいずれか一項に記載の操作環境モデル構築システム。   4. The operating environment model construction system according to claim 1, wherein the geometric information includes information indicating positions of a plurality of the geometric primitives adapted to the stereoscopic image. 5. 前記操作情報は、少なくとも前記被操作体の移動方向を示すための情報を含むことを特徴とする請求項1乃至4のいずれか一項に記載の操作環境モデル構築システム。   The operation environment model construction system according to any one of claims 1 to 4, wherein the operation information includes at least information for indicating a moving direction of the object to be operated. 前記位置情報の取得及び前記幾何情報の生成は、前記被操作体に対する操作内容のユーザーによる割り当てに応じて実行されることを特徴とする請求項1乃至5のいずれか一項に記載の操作環境モデル構築システム。   The operation environment according to any one of claims 1 to 5, wherein the acquisition of the position information and the generation of the geometric information are executed in accordance with an assignment by a user of an operation content for the object to be operated. Model building system. 記憶対象となる前記操作情報は、操作内容の類型化に応じて予め用意された複数の操作情報の中からユーザーにより選択された操作情報であることを特徴とする請求項1乃至6のいずれか一項に記載の操作環境モデル構築システム。   7. The operation information to be stored is operation information selected by a user from a plurality of operation information prepared in advance according to the type of operation content. The operating environment model construction system according to one item. 前記被操作体に対して前記幾何プリミティブが適応された状態の画像を生成することを特徴とする請求項1乃至7のいずれか一項に記載の操作環境モデル構築システム。   The operation environment model construction system according to claim 1, wherein an image in a state in which the geometric primitive is applied to the object to be operated is generated. 前記操作情報の内容は変更可能に構成されていることを特徴とする請求項1乃至8のいずれか一項に記載の操作環境モデル構築システム。   The operation environment model construction system according to any one of claims 1 to 8, wherein the contents of the operation information are configured to be changeable. 前記被操作体の周囲にある特徴を抽出し、この特徴の空間位置を事前に記憶し、
前記特徴を再度抽出し、今回抽出した前記特徴に対して登録済みの前記特徴を空間的にフィッティングし、事前登録された前記特徴に対して相対位置が定められた情報を前記フィッティングの結果に応じた位置に表示することを特徴とする請求項1乃至9のいずれか一項に記載の操作環境モデル構築システム。
Extracting a feature around the object to be operated, storing the spatial position of the feature in advance,
The feature is extracted again, the feature already registered with respect to the feature extracted this time is spatially fitted, and information on the relative position with respect to the pre-registered feature is determined according to the result of the fitting The operation environment model construction system according to claim 1, wherein the operation environment model construction system is displayed at a selected position.
請求項1乃至10のいずれか一項に記載の操作環境モデル構築システムは、
ユーザーにより持ち運び可能な端末装置と、
前記端末装置に対して通信可能に接続されたサーバと、を含み、
前記端末装置は、前記位置情報の取得を実行し、
前記サーバは、前記幾何情報の生成を実行する。
The operation environment model construction system according to any one of claims 1 to 10,
A terminal device that can be carried by the user;
A server communicably connected to the terminal device,
The terminal device executes the acquisition of the position information,
The server executes generation of the geometric information.
請求項11に記載の操作環境モデル構築システムと、
前記操作環境モデル構築システムに対して通信可能に構成された作業ロボットと、
を備えるシステムであって、
前記作業ロボットは、前記被操作体の位置を特定するための位置情報を前記サーバに対して送信し、
前記サーバは、前記作業ロボットから受信した前記位置情報に対して関連付けられた前記操作情報を前記端末装置に対して送信し、
前記端末装置は、前記サーバから送信した前記操作情報に基づいて、前記作業ロボットに対する作業指示の入力を前記ユーザーに対して要求する。
An operation environment model construction system according to claim 11;
A work robot configured to be able to communicate with the operation environment model construction system;
A system comprising:
The work robot transmits position information for specifying the position of the operated body to the server,
The server transmits the operation information associated with the position information received from the work robot to the terminal device;
The terminal device requests the user to input a work instruction for the work robot based on the operation information transmitted from the server.
システムは、被操作体の計測により得られる立体像に対して幾何プリミティブを適応させて前記被操作体の幾何的特性を示す幾何情報を生成し、
前記システムは、前記幾何情報の生成の被対象物である前記被操作体の空間位置を示す位置情報を取得し、
前記システムは、作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する、操作環境モデルの構築方法。
The system generates geometric information indicating a geometric characteristic of the operated object by adapting a geometric primitive to a stereoscopic image obtained by measurement of the operated object,
The system acquires position information indicating a spatial position of the object to be operated, which is an object for generating the geometric information,
A method for constructing an operation environment model, wherein the system stores operation information indicating an operation content to be performed by a work robot in association with the generated geometric information and the acquired position information.
JP2010291772A 2010-12-28 2010-12-28 Operation environment model construction system and operation environment model construction method Active JP5659787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010291772A JP5659787B2 (en) 2010-12-28 2010-12-28 Operation environment model construction system and operation environment model construction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010291772A JP5659787B2 (en) 2010-12-28 2010-12-28 Operation environment model construction system and operation environment model construction method

Publications (2)

Publication Number Publication Date
JP2012135858A true JP2012135858A (en) 2012-07-19
JP5659787B2 JP5659787B2 (en) 2015-01-28

Family

ID=46673743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010291772A Active JP5659787B2 (en) 2010-12-28 2010-12-28 Operation environment model construction system and operation environment model construction method

Country Status (1)

Country Link
JP (1) JP5659787B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531692A (en) * 2012-09-05 2015-11-05 クアルコム,インコーポレイテッド Robot control information
CN108181636A (en) * 2018-01-12 2018-06-19 中国矿业大学 Petrochemical factory's crusing robot environmental modeling and map structuring device and method
WO2021117868A1 (en) * 2019-12-13 2021-06-17 川崎重工業株式会社 Robot system and method for forming three-dimensional model of workpiece
WO2023170764A1 (en) * 2022-03-07 2023-09-14 ファナック株式会社 Device for generating search program for robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256025A (en) * 2001-12-25 2003-09-10 National Institute Of Advanced Industrial & Technology Robot motion teaching method and device
JP3713021B2 (en) * 2003-02-17 2005-11-02 松下電器産業株式会社 Article handling system and robot operating device for living space
JP3738256B2 (en) * 2003-03-05 2006-01-25 松下電器産業株式会社 Article movement system for living space and robot operation device
JP2008068348A (en) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology Robot work teaching system and work teaching method for robot
JP4153528B2 (en) * 2006-03-10 2008-09-24 ファナック株式会社 Apparatus, program, recording medium and method for robot simulation
JP2009214212A (en) * 2008-03-10 2009-09-24 Toyota Motor Corp Action teaching system, and action teaching method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256025A (en) * 2001-12-25 2003-09-10 National Institute Of Advanced Industrial & Technology Robot motion teaching method and device
JP3713021B2 (en) * 2003-02-17 2005-11-02 松下電器産業株式会社 Article handling system and robot operating device for living space
JP3738256B2 (en) * 2003-03-05 2006-01-25 松下電器産業株式会社 Article movement system for living space and robot operation device
JP4153528B2 (en) * 2006-03-10 2008-09-24 ファナック株式会社 Apparatus, program, recording medium and method for robot simulation
JP2008068348A (en) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology Robot work teaching system and work teaching method for robot
JP2009214212A (en) * 2008-03-10 2009-09-24 Toyota Motor Corp Action teaching system, and action teaching method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531692A (en) * 2012-09-05 2015-11-05 クアルコム,インコーポレイテッド Robot control information
CN108181636A (en) * 2018-01-12 2018-06-19 中国矿业大学 Petrochemical factory's crusing robot environmental modeling and map structuring device and method
CN108181636B (en) * 2018-01-12 2020-02-18 中国矿业大学 Environment modeling and map building device and method for petrochemical plant inspection robot
WO2021117868A1 (en) * 2019-12-13 2021-06-17 川崎重工業株式会社 Robot system and method for forming three-dimensional model of workpiece
JP6905651B1 (en) * 2019-12-13 2021-07-21 川崎重工業株式会社 How to form a 3D model of a robot system and work
WO2023170764A1 (en) * 2022-03-07 2023-09-14 ファナック株式会社 Device for generating search program for robot

Also Published As

Publication number Publication date
JP5659787B2 (en) 2015-01-28

Similar Documents

Publication Publication Date Title
US8355816B2 (en) Action teaching system and action teaching method
JP6810093B2 (en) Robot simulation device
JP6526098B2 (en) Operating device for operating a robot, robot system, and operating method
US20190240573A1 (en) Method for controlling characters in virtual space
JP2020055075A (en) Robot control device using augmented reality and composite reality and display device
CN106256512B (en) Robot device including machine vision
CN103365411A (en) Information input apparatus, information input method, and computer program
CN104897091A (en) Articulated arm coordinate measuring machine
CN110888428B (en) Mobile robot, remote terminal, computer readable medium, control system, and control method
Frank et al. Toward mobile mixed-reality interaction with multi-robot systems
JP2008275341A (en) Information processor and processing method
US11833697B2 (en) Method of programming an industrial robot
JP5659787B2 (en) Operation environment model construction system and operation environment model construction method
JP2015138345A (en) Information processing device, information processing system, block system, and information processing method
US10347026B2 (en) Information processing apparatus with location based display
US20230347509A1 (en) Robot control apparatus, robot control method, and program
JP6902369B2 (en) Presentation device, presentation method and program, and work system
CN110603122A (en) Automated personalized feedback for interactive learning applications
JP6193135B2 (en) Information processing apparatus, information processing system, and information processing method
CN111459277A (en) Mechanical arm teleoperation system based on mixed reality and interactive interface construction method
KR20190059726A (en) Method for processing interaction between object and user of virtual reality environment
JP2012156836A (en) Remote controller and program
JP6177145B2 (en) Information processing apparatus and information processing method
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
JP6809267B2 (en) Information processing equipment, information processing systems and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R151 Written notification of patent or utility model registration

Ref document number: 5659787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151