JP2012135858A - System and method for construction of operating environment model - Google Patents
System and method for construction of operating environment model Download PDFInfo
- Publication number
- JP2012135858A JP2012135858A JP2010291772A JP2010291772A JP2012135858A JP 2012135858 A JP2012135858 A JP 2012135858A JP 2010291772 A JP2010291772 A JP 2010291772A JP 2010291772 A JP2010291772 A JP 2010291772A JP 2012135858 A JP2012135858 A JP 2012135858A
- Authority
- JP
- Japan
- Prior art keywords
- information
- geometric
- operated
- terminal device
- work robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、操作環境モデル構築システム、および操作環境モデル構築方法に関する。 The present invention relates to an operation environment model construction system and an operation environment model construction method.
様々な環境へロボット技術を適用する試みが従来から為されている。 Attempts have been made to apply robot technology to various environments.
特許文献1には、一般家庭、オフィス、ホテル、店舗及び病院等のヒトが活動を行う生活空間内でロボットに物品の移動作業を実行させるシステムが開示されている。特許文献1では、電子タグを使って物品を識別可能とした状態が予め構築されている(例えば、同文献の段落0029、0066〜0067参照)。作業ロボットによる物品の移動等は、電子タグから得られる情報に基づいて行われる(例えば、同文献の段落0153参照)。特許文献2には、同文献の図14、15に示されているように、操作画面を介して、物品を移動させる手順が開示されている。
特許文献3には、作業ロボットに対して適切な作業指示を与えることができるロボット作業教示システムが開示されている。同文献の図3に示されているように、対象物の物体モデルを選択し(同文献の段落0027参照)、その後作業モデルを選択している(同文献の段落0028参照)。同文献の図4は、画面例であり、同文献の図5は、作業対象物の種類を指定するアイコンリストであり、同文献の図6は、対象物に対する作業を指定するアイコンリストである。
特許文献4には、視覚センサを有するロボットの動作をオフラインで疑似的に遂行するロボットシミュレーション装置が開示されている。特許文献5には、指定された素形状モデルを3次元データに対してフィッティングし、この結果に基づいて適切な把持パターンをデータベースから取得することが開示されている(同文献の図2参照)。
作業ロボットが導入される環境を事前にモデル化することが行われる場合がある。端的には、家具、扉等の構造物に対するロボットの操作を円滑化するため、それらのモデル化を事前に行う場合がある。作業ロボットが構造物を操作するためには、その構造物のどの部位をどのように操作すべきかの情報が必要であるためである。 In some cases, the environment in which the work robot is introduced is modeled in advance. In short, in order to facilitate the operation of the robot with respect to structures such as furniture and doors, they may be modeled in advance. This is because in order for the work robot to operate the structure, information on which part of the structure should be operated and how is necessary.
しかしながら、そのような周辺環境をCAD等によって3次元的にモデル化する作業は、専門家をしても手間がかかり、この作業負担を無視することはできない。また、ロボットの導入環境毎にモデル化を行う必要が生じる場合があり、全体的な導入コスト/導入負担は著しいものと成り得る。仮に、ロボット導入後の環境変化(例えば、家具のレイアウト変更、増改築等)があると、適宜、既存の3次元モデルを修正する必要が生じ、メンテナンス負担が増大してしまうおそれもある。 However, the work of modeling such a surrounding environment three-dimensionally by CAD or the like is time-consuming even for an expert, and this work load cannot be ignored. Further, it may be necessary to perform modeling for each robot introduction environment, and the overall introduction cost / introduction burden can be significant. If the environment changes after the introduction of the robot (for example, furniture layout change, extension / renovation, etc.), the existing three-dimensional model needs to be appropriately corrected, and the maintenance burden may increase.
上述の説明から明らかなように、作業ロボットの導入環境のモデル化負担を低減することが強く求められている。 As is clear from the above description, there is a strong demand to reduce the modeling burden of the work robot introduction environment.
本発明に係る操作環境モデル構築システムは、被操作体の計測により得られる立体像に対して幾何プリミティブを適応させて前記被操作体の幾何的特性を示す幾何情報を生成し、前記幾何情報の生成対象である前記被操作体の空間位置を示す位置情報を取得し、前記被操作体に対して作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する。 The operating environment model construction system according to the present invention generates geometric information indicating geometric characteristics of the operated object by adapting geometric primitives to a stereoscopic image obtained by measurement of the operated object, The position information indicating the spatial position of the operation target that is the generation target is acquired, and the operation information indicating the operation content to be performed by the work robot on the operation target is acquired, the generated geometric information and the acquired The position information is stored in association with the position information.
前記被操作体の幾何的特性は、前記立体像に対する複数の前記幾何プリミティブの適応によって表現される、と良い。 The geometric characteristic of the object to be operated may be expressed by adaptation of the plurality of geometric primitives to the stereoscopic image.
前記幾何情報は、前記立体像に対して適応された複数の前記幾何プリミティブの形状を示す情報を含む、と良い。 The geometric information may include information indicating shapes of the plurality of geometric primitives adapted to the stereoscopic image.
前記幾何情報は、前記立体像に対して適応された複数の前記幾何プリミティブの位置を示す情報を含む、と良い。 The geometric information may include information indicating positions of the plurality of geometric primitives adapted to the stereoscopic image.
前記操作情報は、少なくとも前記被操作体の移動方向を示すための情報を含む、と良い。 The operation information preferably includes at least information for indicating a moving direction of the operated object.
前記位置情報の取得及び前記幾何情報の生成は、前記被操作体に対する操作内容のユーザーによる割り当てに応じて実行される、と良い。 The acquisition of the position information and the generation of the geometric information may be executed in accordance with an assignment by a user of operation contents for the object to be operated.
記憶対象となる前記操作情報は、操作内容の類型化に応じて予め用意された複数の操作情報の中からユーザーにより選択された操作情報である、と良い。 The operation information to be stored may be operation information selected by the user from a plurality of operation information prepared in advance according to the type of operation content.
前記被操作体に対して前記幾何プリミティブが適応された状態の画像を生成する、と良い。 It is preferable to generate an image in which the geometric primitive is applied to the object to be operated.
前記操作情報の内容は変更可能に構成されている、と良い。 The content of the operation information is preferably configured to be changeable.
前記被操作体の周囲にある特徴を抽出し、この特徴の空間位置を事前に記憶し、前記特徴を再度抽出し、今回抽出した前記特徴に対して登録済みの前記特徴を空間的にフィッティングし、事前登録された前記特徴に対して相対位置が定められた情報を前記フィッティングの結果に応じた位置に表示する、と良い。 Extracting the features around the object to be operated, storing the spatial positions of the features in advance, extracting the features again, and spatially fitting the registered features to the extracted features It is preferable to display information having a relative position with respect to the pre-registered feature at a position corresponding to the result of the fitting.
上述のいずれか一項に記載の操作環境モデル構築システムは、ユーザーにより持ち運び可能な端末装置と、前記端末装置に対して通信可能に接続されたサーバと、を含み、前記端末装置は、前記位置情報の取得を実行し、前記サーバは、前記幾何情報の生成を実行する、と良い。 The operating environment model construction system according to any one of the above includes a terminal device that can be carried by a user, and a server that is communicably connected to the terminal device, and the terminal device includes the position Information acquisition may be performed, and the server may generate the geometric information.
本発明に係るシステムは、上述の操作環境モデル構築システムと、前記操作環境モデル構築システムに対して通信可能に構成された作業ロボットと、を備えるシステムであって、前記作業ロボットは、前記被操作体の位置を特定するための位置情報を前記サーバに対して送信し、前記サーバは、前記作業ロボットから受信した前記位置情報に対して関連付けられた前記操作情報を前記端末装置に対して送信し、前記端末装置は、前記サーバから送信した前記操作情報に基づいて、前記作業ロボットに対する作業指示の入力を前記ユーザーに対して要求する。 A system according to the present invention is a system including the above-described operation environment model construction system and a work robot configured to be communicable with the operation environment model construction system, wherein the work robot includes the manipulation target Position information for specifying the position of the body is transmitted to the server, and the server transmits the operation information associated with the position information received from the work robot to the terminal device. The terminal device requests the user to input a work instruction to the work robot based on the operation information transmitted from the server.
本発明に係る操作環境モデルの構築方法は、システムは、被操作体の計測により得られる立体像に対して幾何プリミティブを適応させて前記被操作体の幾何的特性を示す幾何情報を生成し、前記システムは、前記幾何情報の生成の被対象物である前記被操作体の空間位置を示す位置情報を取得し、前記システムは、作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する。 In the operation environment model construction method according to the present invention, the system generates geometric information indicating the geometric characteristics of the operated object by adapting a geometric primitive to a stereoscopic image obtained by measurement of the operated object. The system acquires position information indicating a spatial position of the object to be operated, which is an object for generating the geometric information, and the system generates operation information indicating an operation content to be performed by a work robot. The geometric information and the acquired position information are stored in association with each other.
本発明によれば、作業ロボットの導入環境のモデル化負担を低減することが可能になる。 According to the present invention, it is possible to reduce the modeling burden of the work robot introduction environment.
以下、図面を参照しながら、本発明の実施形態について説明する。各実施形態と個々に独立したものではなく、適宜、組み合わせることが可能であり、また、組み合わせに基づく相乗効果も主張可能なものとする。同一の要素には同一の符号を付し、重複説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each embodiment is not individually independent, but can be appropriately combined, and a synergistic effect based on the combination can also be claimed. The same elements are denoted by the same reference numerals, and redundant description is omitted.
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、システムの概略的なブロック図である。図2は、端末装置の概略図である。図3は、端末装置の使用状態を示す図である。図4は、作業ロボットの動作状態を示す図である。図5は、環境モデリングサーバの概略的なブロック図である。図6は、端末装置の概略的なブロック図である。図7は、3D画像取得部の概略的なブロック図である。図8は、位置姿勢情報取得部の概略的なブロック図である。図9は、作業ロボットの概略的なブロック図である。図10は、作業ロボットに組み込まれた位置姿勢情報取得部の概略的なブロック図である。図11は、システムの概略動作を示すフローチャートである。図12は、操作タグの配置動作を示す概略的なフローチャートである。図13〜図17は、操作タグの配置動作時の表示画像を示す図である。図18は、操作アイコンを示す図である。図19は、操作タグデータベースに格納される操作タグのデータ構造を示す模式図である。図20は、幾何プリミティブと指示動作内容との関係を示す模式図である。図21は、幾何プリミティブと指示動作内容との組み合わせの変形例を示す模式図である。図22は、操作情報の変更手順を示す概略的なフローチャートである。図23乃至図26は、操作情報の変更時の表示画像を示す図である。図27は、操作タグの配置状態を模式的に示す仮想図である。図28は、作業ロボットに対する操作指示手順を示す概略的なフローチャートである。図29乃至図33は、作業ロボットに対する操作指示時の表示画像を示す図である。図34は、幾何プリミティブのバリエーションを示す図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram of the system. FIG. 2 is a schematic diagram of the terminal device. FIG. 3 is a diagram illustrating a usage state of the terminal device. FIG. 4 is a diagram illustrating an operation state of the work robot. FIG. 5 is a schematic block diagram of the environment modeling server. FIG. 6 is a schematic block diagram of the terminal device. FIG. 7 is a schematic block diagram of the 3D image acquisition unit. FIG. 8 is a schematic block diagram of the position and orientation information acquisition unit. FIG. 9 is a schematic block diagram of the work robot. FIG. 10 is a schematic block diagram of the position / orientation information acquisition unit incorporated in the work robot. FIG. 11 is a flowchart showing a schematic operation of the system. FIG. 12 is a schematic flowchart showing an operation tag placement operation. 13 to 17 are diagrams showing display images at the time of operation tag placement operation. FIG. 18 is a diagram illustrating operation icons. FIG. 19 is a schematic diagram showing a data structure of operation tags stored in the operation tag database. FIG. 20 is a schematic diagram showing the relationship between geometric primitives and instruction operation contents. FIG. 21 is a schematic diagram illustrating a modification of the combination of the geometric primitive and the instruction operation content. FIG. 22 is a schematic flowchart showing a procedure for changing operation information. 23 to 26 are diagrams showing display images when the operation information is changed. FIG. 27 is a virtual diagram schematically showing the arrangement state of operation tags. FIG. 28 is a schematic flowchart showing an operation instruction procedure for the work robot. FIG. 29 to FIG. 33 are diagrams showing display images when an operation instruction is given to the work robot. FIG. 34 is a diagram showing variations of geometric primitives.
図1に示すように、システム100は、無線ネットワーク20を介して互いに通信可能に接続された環境モデリングサーバ10、端末装置30、及び作業ロボット40から構築される。なお、当業者であれば、適宜、システム変更をなすことが可能である。例えば、環境モデリングサーバ10に対して、端末装置30、作業ロボット40の一部の機能を移設することも可能である(その逆も然り)。
As shown in FIG. 1, the
環境モデリングサーバ10は、一般的なサーバ装置であり、高度な演算処理を実行可能に構成され、かつデータベースサーバとして機能可能に構成されている。端末装置30は、汎用レベルの処理機能を有するコンピュータから構成される。作業ロボット40にも、汎用レベルの処理機能を有するコンピュータが組み込まれている。なお、周知のように、コンピュータは、CPU(Central Processing Unit)、ハードディスク、メモリ、マザーボード、ドーターボード、外部インターフェイス等から構成される。CPUは、ハードディスク、メモリ等の記憶領域に格納されたプログラムを実行する。このようなCPUによるプログラム処理によって、様々な機能が具現化される。
The
図2に示すように、端末装置30は、ユーザーにより持ち運び可能なサイズに構成されている。端末装置30の前面30aには、表示部30cが設けられ、その背面30bには、3次元計測部30d、及び画像取得部30eが設けられている。端末装置30の表示部30cは、タッチパネル装置が組み込まれている(図3も併せて参照のこと)。ユーザー210は、端末装置30のタッチパネルに表示されるアイコンを指で指定することによって、端末装置30に対して指示を入力する。画像取得部30eは、後述の画像取得部38bに相当する。3次元計測部30dは、後述の奥行き情報取得部38cに相当する。
As shown in FIG. 2, the
図3に模式的に示すように、ユーザー210は、端末装置30を持ち、作業ロボット40の導入環境に固定されている構造物(被操作体)90a〜90cを順次撮影し、後述の説明のように、端末装置30により取得された立体像に対して仮想的に操作タグを設定する。ユーザー210は、端末装置30の位置/姿勢を適当なものとすることによって、任意の構造物を撮影することができる。従って、目的とする構造物を迅速に、直感的に計測することができる。この場合には、固定カメラ等の場合のように死角が問題となることは低減される。
As schematically shown in FIG. 3, the
システム100によって実行される操作タグの設定方法は、概略的に説明すれば、次のとおりである。まず、構造物の位置を示すための"位置データ(位置情報)"、その構造物の幾何形状を示すための"構造データ(幾何情報)"、その構造物に対して作業ロボットが成すべき動作内容を指定するための"操作内容データ(操作情報)"を生成し、これらを操作タグIDにて関連づけて記憶する。このようにして、導入空間内に存在する各構造物に対して作業ロボット40が為すべき操作内容が事前設定される。なお、各操作タグは、操作タグIDによって識別され、上述のデータを含んで構成される。本願では、操作タグIDに対して関連付けられたデータ群を単に"操作タグ"と簡略的に呼ぶ場合があるものとする。この点は、説明の便宜上の問題であり、この点を根拠として本願発明の技術的範囲が狭く解釈されることは許されない。
The operation tag setting method executed by the
上述の構造データは、好適には、構造物の3次元計測により得られた立体像に対して幾何プリミティブを適用することによって得られる。これによって、作業ロボット40の操作対象となる構造物の実形状をシステム側が把握することが可能になり、作業ロボット40による構造物の操作精度が向上する。上述の位置データは、GPS測位、無線LANアクセスを測位基準として利用した測位、携帯電話基地局を利用した測位等によって取得される。操作内容データは、予め類型化されたデータから選択されるものである。
The above-described structure data is preferably obtained by applying geometric primitives to a stereoscopic image obtained by three-dimensional measurement of a structure. As a result, the system can grasp the actual shape of the structure to be operated by the
図3に例示的に示すように、作業ロボットの導入環境には、タンス90a、物入れ90b、および扉90c等の構造物90が設けられている。タンス90aには、取っ手91aにより開閉される引き出し、及び取っ手91bにより開閉される引き出しが設けられている。物入れ90bには、取っ手91cにより開閉される扉が設けられている。扉90cは、取っ手91dによって開閉される。
As exemplarily shown in FIG. 3, a
図4に模式的に示すように、作業ロボット40は、導入環境内にて様々な作業を行う。例えば、作業ロボット40は、タンス90aの取っ手91aを手前に引き、タンス90aに設けられた上段引出しの中身を撮像する。作業ロボット40は、扉90cの取っ手91dを手前に引き、扉90cの向こう側の部屋へ移動する。作業ロボット40による各構造物の操作は、ユーザーによる端末装置30の操作によって実行される。
As schematically shown in FIG. 4, the
作業ロボット40に対する操作指示は、ユーザー側から見ると、次のように実行される。端末装置30は、作業ロボット40の取得画像に操作タグアイコンが重畳表示された画像をユーザーに提示する。ユーザーは、端末装置30が提示する操作タグアイコンを指タッチし、これから導かれる操作内容を指タッチにより指定する。端末装置30から作業ロボット40に対して、ユーザーによる操作指示が転送され、作業ロボット40は所望の動作を実行する。構造物の3次元計測データに対して幾何プリミティブを適応することにより構造物の実形状が把握可能となっているため、作業ロボット40による構造物の操作は、精度よく実行可能である。また、作業ロボット40に対して伝達される操作指示は、構造物から得られたデータに対してフィッティングされた幾何プリミティブとの関係において特定される。これによって、構造物に対する作業ロボット40の操作内容を簡潔に示すことが可能になる。
The operation instruction for the
なお、図4に示すように、作業ロボット40は、外観要素として、車両部40a、胴部40b、頭部40c、及び腕部40d、40eを有する。作業ロボット40の腕部40dは、リンク部40d1、40d2、ハンド部40d3が関節接続されて構成される。作業ロボット40の腕部40eについても腕部40dと同様である。車両部40aには、個別に回転制御される一組の車輪40a1が設けられている。車両部40aには、一組の車輪を個別に制御する制御機構が組み込まれている。胴部40bには、作業ロボット40が行う様々な動作を制御する制御装置が組み込まれている。頭部40cには、様々なセンシングデバイス等が組み込まれている。
As shown in FIG. 4, the
作業ロボット40は、例えば、目的地までの移動経路等を自律的に決定し、決定した移動経路に沿って自律移動することが可能に構成されている。作業ロボット40は、センシングデバイスにて検出されるセンシング結果に基づいて自身の現在姿勢を検知することが可能に構成されている。作業ロボット40は、自律的又はユーザーからの指令に応じて、所望の姿勢に変化することが可能に構成されている。作業ロボット40による構造物の操作は、作業ロボット40の姿勢変化によって実行される。作業ロボット40内に組み込まれたアクチュエータ、モータ等の動作量を適当なものとすることによって、作業ロボット40の姿勢制御が実行される。
For example, the
繰り返しとなるが、本実施形態では、各構造物に対して仮想的に操作タグが付与される。各構造物に対して成す作業ロボットの操作内容は、操作対象の構造物に対して事前設定された操作タグに基づいて実行される。操作タグは、より好適には、被操作体の位置を示す位置データ(位置情報)、その被操作体の3次元計測から得られた立体像に対して幾何プリミティブを適応させて得られる構造データ(幾何情報)、およびその被操作体に対して作業ロボットが成すべき操作内容を示す操作内容データ(操作内容情報)を含む。ユーザーが構造物に対して操作タグを仮想的に事前設定することで、適切な操作環境モデルを構築することができ、作業ロボット40が導入される環境のモデル化の負担を低減することが可能になる。
Again, in this embodiment, an operation tag is virtually attached to each structure. The operation content of the work robot made for each structure is executed based on an operation tag set in advance for the structure to be operated. More preferably, the operation tag is position data (position information) indicating the position of the object to be operated, and structure data obtained by adapting the geometric primitive to the stereoscopic image obtained from the three-dimensional measurement of the object to be operated. (Geometric information) and operation content data (operation content information) indicating the operation content to be performed by the work robot on the operated body. A user can construct an appropriate operation environment model by virtually setting operation tags for the structure, and can reduce the burden of modeling the environment in which the
構造物に対して仮想的に操作タグを付与することは、仮想空間内において、構造物に対応づけて操作タグを設定することを意味し、構造物に対して直接的に情報を持たせることは意味しない。構造物に対して関連付けられた操作タグを情報として管理することは、システム100(本例では、環境モデリングサーバ10)によって実行される。 Virtually assigning an operation tag to a structure means setting an operation tag in association with the structure in the virtual space, and giving information directly to the structure Does not mean. Management of operation tags associated with a structure as information is executed by the system 100 (in this example, the environment modeling server 10).
構造物を特定するための情報(構造物の位置、形状等を特定するための情報)に対して、同構造物に対して作業ロボット40が成すべき操作内容を付加して記憶することを繰り返すことによって、各構造物に対して操作タグを仮想的に付与することができる。作業ロボット40に対して実作業を実行させる場合、システム100は、作業ロボット40が得たデータ(位置データ、姿勢データ等)に基づいて、作業ロボット40が操作対象とする構造物に対して事前付与された操作タグをユーザーに対して提示する。ユーザーには、作業ロボットが成し得る動作内容が提示される。ユーザーは、端末装置30の操作によって、作業ロボット40に対して所定の操作を実行させる。
The information for specifying the structure (information for specifying the position, shape, etc. of the structure) is repeatedly added and stored with the operation content to be performed by the
図5乃至図10を参照して、システム100の動作の詳細について説明する。なお、上述のように、システムの具体的な構成態様は任意である。端末装置30を単なる入出力装置として扱い、端末装置30が実行する演算処理機能の大部分を環境モデリングサーバ10に実行させても良い。端末装置30を用いて操作タグの設定を実行しているが、作業ロボット40を活用して操作タグの設定を実行しても良い。この場合、端末装置30に対して、3次元計測手段、位置姿勢計測手段等のセンシング機構を具備させる必要性を回避することができる。
Details of the operation of the
図5に示すように、環境モデリングサーバ10は、通信部11、制御部12、操作タグデータベース13、操作タグ生成部14、及びフィッティング実行部15を有する。通信部11は、無線ネットワーク20に対して無線接続される。制御部12は、通信部11、操作タグデータベース13、及び操作タグ生成部14に対して接続される。操作タグ生成部14は、フィッティング実行部15に対して接続される。
As illustrated in FIG. 5, the
通信部11は、無線ネットワーク20を介して、端末装置30、作業ロボット40と通信を行う。通信部11は、技術標準に準拠して構成される。制御部12は、通信制御、データベースアクセス制御、メモリアクセス制御、シーケンス制御、演算制御、データ転送制御、データ圧縮/解凍制御等を行う。操作タグデータベース13は、データを管理するユニットであり、データベースコントローラを内蔵する。操作タグ生成部14は、操作タグデータベースに格納される操作タグを生成する。フィッティング実行部15は、端末装置30、作業ロボット40から転送された3次元データに対して、予め登録されている幾何プリミティブのフィッティングを実行する。
The
図6に示すように、端末装置30は、通信部31、制御部32、表示画像生成部33(メニュー生成部33a、仮想画像生成部33b、合成画像生成部33c)、表示部36、指示入力部37、3D画像取得部38、および位置姿勢情報取得部39を有する。通信部31は、無線ネットワーク20に対して無線接続される。制御部32は、通信部31、表示画像生成部33、表示部36、指示入力部37、3D画像取得部38、および位置姿勢情報取得部39に対して接続される。
As illustrated in FIG. 6, the
通信部31は、無線ネットワーク20を介して、環境モデリングサーバ10、作業ロボット40と通信を行う。通信部31は、技術標準に準拠して構成される。制御部32は、通信制御、メモリアクセス制御、シーケンス制御、演算制御、データ転送制御、データ圧縮/解凍制御等を行う。表示画像生成部33は、表示部36にて生成されるべき画像を生成する。メニュー生成部33aは、メニュー等の表示項目を生成する。仮想画像生成部33bは、実在しない仮想表示を生成する。合成画像生成部33cは、画像の合成処理を実行する。表示部36は、液晶ディスプレイ等から構成される画像表示部である。指示入力部37は、タッチパネルディスプレイに格納される指示入力位置検出装置等により構成される。3D画像取得部38は、周囲環境を写す2次元画像に加えて、画像の奥行き情報を取得する。位置姿勢情報取得部39は、端末装置30の位置姿勢情報を取得する。
The
3D画像取得部38の具体的構成は任意である。例えば、異なる位置に配置された2つのカメラにて画像取得し、異なる視点から取得された2つの画像に基づいて奥行き情報を算出しても良い。TOF(Time Of Flight)の原理に基づいて奥行き情報を求めても良い。或いは、コード化した光の投光によって得られる反射光の検知に基づいて奥行き情報を取得しても良い。図7に例示的に示すように、3D画像取得部38は、制御部38a、画像取得部38b、奥行き情報取得部38c、奥行き算出部38dを有する。制御部38aは、画像取得部38b、奥行き情報取得部38c、及び奥行き算出部38dに対して接続される。奥行き情報取得部38cは、奥行き算出部38dに対して接続される。制御部38aは、制御部32に対して接続される。
The specific configuration of the 3D
制御部38aは、画像取得部38b、奥行き情報取得部38c、奥行き算出部38dの動作を制御する。画像取得部38bは、好適には、カメラによって構成される。カメラは、CMOSセンサ(撮像素子)、CMOSセンサに対して被写体像を結像させるレンズ(光学系)、レンズを変位させる機構(レンズ駆動装置)、及びCMOSセンサの出力データを処理する機能回路等から構成される。画像取得部38bで取得された画像データは、バスを介して、表示部36に伝送される。奥行き情報取得部38cは、パターン光投光部と、パターン光受光部とから構成される。奥行き算出部38dは、パターン光の投光時点から反射されたパターン光の受光時点間の時間計測に基づいて、奥行き情報を算出する。或いは、パターン光投光位置とカメラの視差によるステレオ原理に基づいて、奥行き情報を算出しても良い。
The
位置姿勢情報取得部39の具体的構成は任意である。例えば、位置姿勢情報取得部39は、導入環境に設定された複数の発信源から発信される信号の受信強度に基づいて、現在位置を算出する。昨今においては、衛星から受信したGPS信号に基づいて現在位置を算出することが多用されている。従って、この技術を活用して現在位置を取得しても良い。姿勢情報は、本体に内蔵されたジャイロセンサ等の出力から求めることができる。
The specific configuration of the position and orientation
図8に例示的に示すように、位置姿勢情報取得部39は、制御部39a、GPS信号受信部39b、加速度検出部39c、地磁気検出部39dを有する。制御部39aは、GPS信号受信部39b、加速度検出部39c、地磁気検出部39dに対して接続される。制御部39aは、制御部32に対して接続される。
As exemplarily shown in FIG. 8, the position / orientation
制御部39aは、GPS信号受信部39b、加速度検出部39c、地磁気検出部39dを制御し、各ユニットから入力されるデータに対して演算処理等する。GPS信号受信部39bは、GPS信号を受信する。加速度検出部39cは、3軸方向の加速度を検出する。地磁気検出部39dは、地磁気を検出する。
The
図9に示すように、作業ロボット40は、通信部41、制御部42、3D画像取得部43、位置姿勢情報取得部44、および駆動制御部45を有する。通信部31は、無線ネットワーク20に対して無線接続される。制御部42は、通信部41、3D画像取得部43、位置姿勢情報取得部44、および駆動制御部45に対して接続される。
As illustrated in FIG. 9, the
通信部31は、無線ネットワーク20を介して、環境モデリングサーバ10、端末装置30と通信を行う。通信部41は、技術標準に準拠して構成される。制御部42は、通信制御、メモリアクセス制御、シーケンス制御、演算制御、データ転送制御、データ圧縮/解凍制御等を行う。3D画像取得部43は、周囲環境を写す2次元画像に加えて、画像の奥行き情報を取得する。位置姿勢情報取得部44は、作業ロボット40の位置姿勢情報を取得する。駆動制御部45は、作業ロボット40に内蔵される駆動機構を制御する。
The
図10に例示的に示すように、位置姿勢情報取得部44は、制御部44a、GPS信号受信部44b、加速度検出部44c、地磁気検出部44d、及び関節軸角度検出部44eを有する。制御部44aは、GPS信号受信部44b、加速度検出部44c、地磁気検出部44d、及び関節軸角度検出部44eに対して接続される。制御部44aは、制御部32に対して接続される。関節軸角度検出部44eは、ロータリーエンコーダ等の活用によって、リンク間の回転各等を検出する。なお、作業ロボット40には、作業ロボット40の現在姿勢を検出することに必要な様々なセンシングデバイスが内蔵されることは上述したとおりである。
As illustrated in FIG. 10, the position / orientation
図5乃至図10に開示した要素の具体的な動作内容は、後述の説明から更に明らかになる。 The specific operation contents of the elements disclosed in FIGS. 5 to 10 will be further clarified from the following description.
図11に示すように、システム100は、操作タグデータベースの構築をし、その後、操作タグデータベースの格納された操作タグを活用してロボット制御する。
As illustrated in FIG. 11, the
図12を参照して、操作タグの配置手順について説明する。図13乃至図20も適宜参照して説明する。 With reference to FIG. 12, the procedure for arranging operation tags will be described. This will be described with reference to FIGS. 13 to 20 as appropriate.
まず、被操作体を表示する(S100)。具体的には、ユーザーは、図3に模式的に示すように、作業ロボット40の導入空間にて端末装置30を持ち、構造物(例えば、タンス90aの取っ手91a)を撮影する。ユーザーは、端末装置30を適切な位置とすることによって、端末装置30により取っ手91aを撮影する。端末装置30の表示部36は、図13に模式的に示すように、取っ手91aを表示する。
First, an object to be operated is displayed (S100). Specifically, as schematically shown in FIG. 3, the user holds the
次に、キャプチャ動作を実行する(S101)。具体的には、ユーザーは、端末装置30の表示部36に表示されているカメラアイコンを指でタッチし、端末装置30に対してキャプチャ動作の実行を指示する。
Next, a capture operation is executed (S101). Specifically, the user touches the camera icon displayed on the
端末装置30は、キャプチャ実行指示の入力に応じて、(1)被操作体を写す画像のキャプチャ、(2)被操作体の3次元計測、(3)端末装置の位置姿勢データの取得を同時刻に実行する。なお、キャプチャ動作の実行指示の入力は、指示入力部37を介して制御部32に伝達する。制御部32は、3D画像取得部38、位置姿勢情報取得部39に対してデータ取得動作を指示する。3次元計測の具体的な手法は任意である。例えば、3次元計測は、1以上のカメラとパターン光投影機によって実行される。他の例では、2以上のカメラによるステレオ画像計測装置によって、3次元計測が実行される。他の例では、レーザレンジスキャナによって3次元計測が実行される。
In response to the input of the capture execution instruction, the
画像取得部38bは、キャプチャ実行指示の入力時に応じて、現在の取得画像を保持する。
The
奥行き情報取得部38cは、キャプチャ実行指示の入力に応じて、キャプチャ画像の面内における奥行き情報を取得する。例えば、光学的な手法によって奥行き情報は取得される。パターン光の出射から、パターン光が物体に反射して戻ってくる戻り光の検出までの時間を計測することによって、パターン光の照射範囲内の奥行き情報が取得される。なお、奥行き情報の取得方法は任意であり、この例に限られるべきものではない。
The depth
光学的手法により奥行き情報を取得する場合、次のような構成が採用可能である。奥行き情報取得部38cは、パターン光の出射から戻り光の受光までの時間を計測するセンシングユニットである。奥行き算出部38dは、そのセンシングユニットから出力される時間情報から距離を算出する演算ユニットである。
When acquiring depth information by an optical method, the following configuration can be employed. The depth
位置姿勢情報取得部39は、キャプチャ実行指示の入力に応じて、端末装置30の位置姿勢情報を取得する。GPS信号受信部39bは、GPS信号を受信する。加速度検出部39cは、3軸方向の加速度を検出する。地磁気検出部39dは、地磁気を検出する。制御部39aは、GPS信号から、端末装置30の現在位置を算出する。制御部39aは、3軸方向の加速度から端末装置30の鉛直からの姿勢状態を示す値を算出する。制御部39aは、検出された地磁気の値から端末装置30の水平面内の姿勢を算出する。制御部39aは、これらの鉛直および水平面内の姿勢から端末の姿勢を算出する。
The position / orientation
キャプチャ動作の実行指示の入力に応じて取得された(1)キャプチャ画像、(2)被操作体の3次元計測データ、(3)端末装置の位置姿勢データは、バッファ等に一時的に格納される。このバッファは、例えば、制御部32内に設けられる。
The (1) captured image, (2) three-dimensional measurement data of the object to be operated, and (3) the position and orientation data of the terminal device acquired in response to the input of the capture operation execution instruction are temporarily stored in a buffer or the like. The This buffer is provided in the
次に、アイコン選択画像を生成/表示する(S102)。具体的には、制御部32は、表示画像生成部33に対して、キャプチャ画像に対して操作アイコンの選択画像を付加した表示画像の生成を指示する。これに応じて、表示画像生成部33は、メニュー生成部33aに対してアイコン選択画像の生成を指示し、合成画像生成部33cに対してキャプチャ画像とアイコン選択画像との合成処理を指示する。合成画像生成部33cで生成された合成画像は、表示部36によって表示される。これにより、端末装置30は、図14に模式的に示す画面を表示する。
Next, an icon selection image is generated / displayed (S102). Specifically, the
図14に開示された動作A〜動作Dを示すアイコンには、図18に模式的に示すアイコンが表示されるものとする。図18(a)に示されたアイコンは、直線に沿って取っ手を押し/引きする操作を示すアイコンである。図18(b)に示されたアイコンは、曲線に沿って取っ手を押し/引きする操作を示すアイコンである。図18(c)に示されたアイコンは、直線に沿って取っ手を回転させ、続いて、曲線に沿って取っ手を押し/引きする操作を示すアイコンである。図18(d)に示されたアイコンは、直線に沿ってボタンを押し/離す操作を示すアイコンである。図18に開示されたアイコンは、構造物に対して作業ロボットが為すべき操作内容を示す。 It is assumed that the icons schematically shown in FIG. 18 are displayed on the icons indicating the actions A to D disclosed in FIG. The icon shown in FIG. 18A is an icon indicating an operation of pushing / pulling the handle along a straight line. The icon shown in FIG. 18B is an icon indicating an operation of pushing / pulling the handle along the curve. The icon shown in FIG. 18C is an icon indicating an operation of rotating the handle along a straight line and subsequently pushing / pulling the handle along the curve. The icon shown in FIG. 18D is an icon indicating an operation of pressing / releasing a button along a straight line. The icon disclosed in FIG. 18 indicates the operation content that the work robot should perform on the structure.
表示画像生成部33の具体的な画像生成態様は任意である。例えば、メニュー生成部33aは、図14に示す表示領域R10に表示されるべきアイコン選択画像を生成する。合成画像生成部33cは、メニュー生成部33aにて生成された画像とキャプチャ画像とに基づく合成画像を生成する。なお、図14に示す表示領域R10、R20には、適宜、他の処理をユーザーに提示/案内するためのアイコンを表示させても良い。また、表示領域R20を画面全体として、表示領域R10を透過表示させても良い。
The specific image generation mode of the display
次に、操作タグアイコンの選択をする(S103)。具体的には、図15に模式的に示すように、ユーザーは、表示部36に表示されている構造体上へ、作業ロボット40が成すべき動作を示す適切なアイコンを選択的に移動させる。図15に表示された構造物は、図3のタンス90aの取っ手91aである。従って、ユーザーは、図18(a)に示すアイコンを選択して、これを取っ手91a上へ移動させる。このようにして、キャプチャされた構造体に対して、操作情報が関連づけられることになる。なお、ユーザーによるアイコンの選択は、指示入力部37、制御部32、表示部36等らの協調的動作によって実現される。タッチパネルセンサの制御技術は確立されているため、その詳細な動作説明は省略する。
Next, an operation tag icon is selected (S103). Specifically, as schematically shown in FIG. 15, the user selectively moves an appropriate icon indicating the operation to be performed by the
次に、フィッティングを実行する(S104)。具体的には、端末装置30は、環境モデリングサーバ10に対してフィッティングに必要なデータを送信する。環境モデリングサーバ10は、端末装置30から受信したデータに基づいて、被操作体の3次元計測データに対して幾何プリミティブをフィッティングする。
Next, fitting is executed (S104). Specifically, the
端末装置30は、キャプチャ動作により取得したデータ(キャプチャ画像データ、3次元計測データ)を環境モデリングサーバ10へ送信する。好適には、端末装置30は、環境モデリングサーバ10のフィッティング処理の短縮のため、操作アイコンがドロップされたキャプチャ画像上の位置を示すデータも環境モデリングサーバ10へ送信する。
The
環境モデリングサーバ10は、端末装置30からの受信データに基づいて、被操作体の3次元計測データに対して幾何プリミティブをフィッティングし、フィッティングにより得られたデータを端末装置30へ送信する。フィッティングにより得られるデータは、幾何プリミティブの形状、位置、姿勢を指定するデータである。端末装置30は、環境モデリングサーバ10から供給されたデータに基づいて、図16に模式的に示すように、キャプチャ画像に対して幾何プリミティブが重畳された画像を合成表示する。
Based on the data received from the
フィッティング実行部15は、幾何プリミティブ対(円柱プリミティブと矩形プリミティブの組)を活用して、構造物の3次元形状を示すデータを生成する。上述のように、端末装置30から環境モデリングサーバ10には、上述のデータ(キャプチャ画像データ、3次元計測データ、及び操作アイコンがドロップされたキャプチャ画像上の位置を示すデータ)が転送される。
The
フィッティング実行部15は、キャプチャ画像に対する操作アイコンのドロップ位置に基づいて、操作アイコンのドロップ位置周辺部分の奥行き情報(3次元計測データ)に対して幾何プリミティブをフィッティングする。
The
フィッティングの具体的方法は任意である。例えば、2次元画像及びその奥行き情報から構造物の輪郭及び表面形状が得られる。構造物の輪郭及び表面形状に対して円柱プリミティブを適応し、円柱プリミティブの特定データを得る。円柱プリミティブの特定データは、円柱プリミティブの初期位置姿勢を示すデータ、円柱プリミティブの形状を示すデータを含む。このようなフィッティングによって、円柱プリミティブの位置ベクトル(基準点から円柱プリミティブの中心点を結ぶベクトル)、円柱プリミティブの姿勢ベクトル(円柱の長手方向/延在方向を示すベクトル)が決定される。 The specific method of fitting is arbitrary. For example, the outline and surface shape of the structure can be obtained from the two-dimensional image and its depth information. A cylinder primitive is applied to the outline and surface shape of the structure to obtain specific data of the cylinder primitive. The specific data of the cylinder primitive includes data indicating the initial position and orientation of the cylinder primitive and data indicating the shape of the cylinder primitive. By such fitting, the position vector of the cylinder primitive (vector connecting the reference point to the center point of the cylinder primitive) and the attitude vector of the cylinder primitive (vector indicating the longitudinal direction / extension direction of the cylinder) are determined.
次に、2次元画像及びその奥行き情報から、取っ手が取り付けられた面の表面形状が得られる。取っ手が取り付けられた面に対して矩形プリミティブを適応し、矩形プリミティブの特定データを得る。矩形プリミティブの特定データは、円柱からの距離を示すデータ、矩形の横幅を示すデータ、矩形の縦幅を示すデータを含む。このようにして、被操作体の幾何形状を特定することに十分なデータが取得される。上述の場合、円柱プリミティブの位置ベクトル、姿勢ベクトルを基準として、矩形プリミティブの位置、姿勢が把握される。矩形プリミティブは、鉛直方向に対して平行に配置されるように設定されている。 Next, the surface shape of the surface to which the handle is attached is obtained from the two-dimensional image and its depth information. A rectangular primitive is applied to the surface to which the handle is attached, and specific data of the rectangular primitive is obtained. The specific data of the rectangle primitive includes data indicating the distance from the cylinder, data indicating the horizontal width of the rectangle, and data indicating the vertical width of the rectangle. In this way, data sufficient to specify the geometry of the object to be operated is acquired. In the case described above, the position and orientation of the rectangular primitive are grasped with reference to the position vector and orientation vector of the cylindrical primitive. The rectangular primitives are set so as to be arranged in parallel to the vertical direction.
フィッティングの具体的な態様は任意である。例えば、3次元計測データから抽出される構造物の表面形状に対して幾何プリミティブを適応し、所定のアルゴリズムを活用して幾何プリミティブの形状、位置、姿勢の収束点を求める。これによって、構造物に対してフィットした状態の幾何プリミティブの形状、位置、姿勢を算出することができる。 The specific mode of fitting is arbitrary. For example, a geometric primitive is applied to the surface shape of a structure extracted from three-dimensional measurement data, and a convergence point of the shape, position, and orientation of the geometric primitive is obtained using a predetermined algorithm. As a result, the shape, position, and orientation of the geometric primitive fitted to the structure can be calculated.
次に、フィッティング結果を表示する(S105)。具体的には、環境モデリングサーバ10によるフィッティングにより得られた上述のデータは、端末装置30に転送され、端末装置30によって処理される。これによって、キャプチャ画像に対して幾何プリミティブが重畳された画像が合成表示される。
Next, the fitting result is displayed (S105). Specifically, the above-described data obtained by fitting by the
具体的には、次のとおりである。環境モデリングサーバ10のフィッティング実行部15で生成されたデータは、端末装置30の表示画像生成部33に転送される。表示画像生成部33は、仮想画像生成部33bに対して、受信データに基づいて、円柱プリミティブと矩形プリミティブが表示された仮想画像を生成させる。表示画像生成部33は、合成画像生成部33cに対して、キャプチャ画像に対して仮想画像が付加された画像を合成させる。これによって、図16に示すように、構造物(取っ手91a)に対して円柱プリミティブと矩形プリミティブが重畳された画像が表示される。
Specifically, it is as follows. Data generated by the
次に、フィッティングが成功したか否かを判断する(S106)。具体的には、ユーザーは、端末装置30に表示されたフィッティング状態が適当なものか否かを判断し、その判断結果を端末装置30に入力する。図16に模式的に示すように、端末装置30の表示部36には、OKアイコン、NGアイコンが表示される。ユーザーは、いずれかのアイコンを選択することによって、フィッティングOK又はNGの判断結果を端末装置30に入力する。フィッティングNGの場合、ステップS100に戻り、キャプチャ対象の構造物を再セットして、同様の作業を実行する。
Next, it is determined whether or not the fitting is successful (S106). Specifically, the user determines whether or not the fitting state displayed on the
フィッティングOKの場合、操作タグを記憶する(S107)。具体的には、端末装置30は、操作タグの記憶を指示する信号を環境モデリングサーバ10に送信する。操作タグ生成部14は、この信号に応じて、所定のデータ構造を有する操作タグを生成する(図19を用いて後述する)。次に、制御部12は、生成された操作タグを操作タグデータベース13に対して格納処理する。
In the case of fitting OK, the operation tag is stored (S107). Specifically, the
図19(a)に示すように、操作タグは、ID、基準位置、操作モデル、固有パラメータから構成される。IDは、各操作タグを識別すための識別値である。基準位置は、操作タグの基準位置を示す(基準位置は、例えば、取っ手の中心、すなわち、円柱プリミティブの中心等の操作モデルの代表点とする)。操作モデルは、図18に模式的に示した操作アイコンに対応し、構造物に対して作業ロボット40が成すべき操作内容の分類を示す。固有パラメータは、図19(a)とは別のテーブルに格納されている。固有パラメータには、関連付けられたテーブルを指定するポインタがセットされている。
As shown in FIG. 19A, the operation tag includes an ID, a reference position, an operation model, and a unique parameter. ID is an identification value for identifying each operation tag. The reference position indicates the reference position of the operation tag (the reference position is a representative point of the operation model such as the center of the handle, that is, the center of the cylindrical primitive, for example). The operation model corresponds to the operation icon schematically shown in FIG. 18, and indicates the classification of the operation content to be performed by the
図19(a)に示すポインタPO1が示すテーブル内容を図19(b)に示す。図19(b)に示すように、固有パラメータは、幾何プリミティブ情報、操作モデル情報を含む。幾何プリミティブ情報は、円柱プリミティブの情報、矩形プリミティブの情報を含む。円柱プリミティブには、その特定データ(位置ベクトル、姿勢ベクトル、円柱の直径、円柱の長さ)が関連づけられている。矩形プリミティブに対しては、円柱プリミティブからの距離、縦幅、横幅が関連づけられている。 FIG. 19B shows the contents of the table indicated by the pointer PO1 shown in FIG. As shown in FIG. 19B, the unique parameter includes geometric primitive information and operation model information. The geometric primitive information includes cylindrical primitive information and rectangular primitive information. Specific data (position vector, posture vector, cylinder diameter, cylinder length) is associated with the cylinder primitive. The rectangular primitive is associated with the distance from the cylindrical primitive, the vertical width, and the horizontal width.
操作モデルは、被操作体に対して作業ロボット40が成すべき操作内容を定義する情報である。図13乃至図17に示す例では、作業ロボット40が取っ手に対して成す操作は、取っ手を引く又は戻す作業である。操作モデル情報は、そのような操作の指定に必要なデータから構成される。好適には、軌道と操作パラメータによって、作業ロボット40の操作内容が定義される。軌道は、初期位置と引き出しベクトルとによって定義される。操作パラメータは、最大操作力により定義される。作業ロボット40による操作動作は、操作モデルに規定されることになる。なお、操作モデルが示す操作内容は、操作モデルの種別により定まるものである。ここでは、操作モデルの種別指定から、所定の操作内容が特定されるものとする。
The operation model is information that defines the operation content to be performed by the
図19に示したデータは、図20に模式的に表現することが可能である。操作タグの基準位置は、T1に対応する。円柱プリミティブの直径cd、長さdl、矩形プリミティブの縦幅ra、横幅rbは、図20に示すとおりである。円柱プリミティブからの矩形プリミティブの間隔r1も、図20に示すとおりである。円柱プリミティブの位置ベクトルは、例えば、空間内における操作タグの基準位置からみた円柱の中心(幾何的中心)により指定される。なお、円柱プリミティブの位置、姿勢の特定方法は任意であり、この例にかぎられるべきものではない。操作モデルの軌道の初期位置は、点SPに示すとおりであり、終点位置は、点EPに示すとおりである。軌道の初期位置及び終点位置は、基準位置からみた座標値により示される。初期位置SPと終点位置EPとを結んだベクトルL1は、被操作体の操作方向を示す。操作の最大操作力は、被操作体の重量に応じて適宜設定されるべきものである。 The data shown in FIG. 19 can be schematically represented in FIG. The reference position of the operation tag corresponds to T1. The diameter cd and length dl of the cylindrical primitive, and the vertical width ra and horizontal width rb of the rectangular primitive are as shown in FIG. The interval r1 between the rectangular primitives from the cylindrical primitives is also as shown in FIG. The position vector of the cylinder primitive is specified by, for example, the center (geometric center) of the cylinder viewed from the reference position of the operation tag in the space. Note that the method for specifying the position and orientation of the cylindrical primitive is arbitrary, and should not be limited to this example. The initial position of the trajectory of the operation model is as indicated by the point SP, and the end point position is as indicated by the point EP. The initial position and end position of the trajectory are indicated by coordinate values viewed from the reference position. A vector L1 connecting the initial position SP and the end position EP indicates the operation direction of the operated object. The maximum operating force for the operation should be appropriately set according to the weight of the operated object.
次に、データベースに登録された操作タグアイコンを表示する(S108)。端末装置30は、図17に模式的に示すように、幾何プリミティブの表示を停止し、構造物に対して操作タグが割り当てられていることを示す操作タグアイコンを表示する。その後、適宜、ステップS100に戻り、他の被操作体に対する操作タグのセット動作が繰り返される。
Next, the operation tag icon registered in the database is displayed (S108). As schematically illustrated in FIG. 17, the
制御部12は、操作タグデータベース13への操作タグの登録後、操作タグの位置を示すデータを端末装置30に転送する。表示画像生成部33は、仮想画像生成部33bに対して、操作タグの位置を示すデータから特定される位置に操作タグアイコンが配置された画像を生成させる。表示画像生成部33は、合成画像生成部33cに対して、操作タグアイコンが表示された画像をキャプチャ画像に対して合成処理させる。表示部36は、合成画像生成部33cにより生成された合成画像を表示する。
After registering the operation tag in the
なお、上述の場合、円柱プリミティブと、矩形プリミティブとを用いて、構造物に対する幾何プリミティブの適応を実行したが、被操作体に対して適応される幾何プリミティブの種類は任意である。 In the above case, the geometric primitive is applied to the structure using the cylindrical primitive and the rectangular primitive. However, the type of the geometric primitive applied to the operation target is arbitrary.
図21(a)は、被操作体がボタンの場合を示す。この場合には、円柱プリミティブを用いずに、矩形プリミティブのみを用いる。同図に模式的に示すように、操作の始点/終点、操作ベクトル等によって、操作動作が定義される。 FIG. 21A shows a case where the operated body is a button. In this case, only rectangular primitives are used without using cylindrical primitives. As schematically shown in the figure, an operation action is defined by an operation start / end point, an operation vector, and the like.
図21(b)は、被操作体が扉の場合を示す。この場合には、上記例と同様、円柱プリミティブと矩形プリミティブを扉に対して適応させる。被操作体が異なるため、円柱プリミティブの姿勢は、上記例とは異なるように設定される。また、操作動作も、異なるように定義される。 FIG. 21B shows a case where the operated body is a door. In this case, as in the above example, the cylinder primitive and the rectangle primitive are adapted to the door. Since the object to be operated is different, the posture of the cylindrical primitive is set to be different from the above example. Also, the operation is defined differently.
図22のフローチャートを参照して、上述のように設定した操作タグのプロパティ―変更手順について説明する。図23乃至図26も併せて参照して説明する。操作タグのプロパティ―変更とは、操作タグから特定される操作モデルの具体値等を変更することを意味する。操作モデルの具体的値は、指定の手間を省くため、操作タグの生成時に適当なデフォルト値が割り当てられているが、プロパティ―変更によって、個別に設定内容を修正し、所定の構造物に対する操作内容を最適化することが可能になる。 With reference to the flowchart of FIG. 22, the property-change procedure of the operation tag set as described above will be described. This will be described with reference to FIGS. The operation tag property-change means changing a specific value or the like of the operation model specified from the operation tag. The specific values of the operation model are assigned appropriate default values when generating operation tags in order to save the time and effort to specify them. The content can be optimized.
まず、被操作体を表示する(S200)。この動作は、上述のS100と同様である。 First, an object to be operated is displayed (S200). This operation is the same as S100 described above.
次に、位置姿勢データの取得/送信を実行する(S201)。具体的には、端末装置30は、自身の現在位置を示す情報を取得し、これを環境モデリングサーバ10へ送信する。
Next, acquisition / transmission of position and orientation data is executed (S201). Specifically, the
次に、操作タグのダウンロードが実行される(S202)。具体的には、環境モデリングサーバ10は、受信した位置データの近傍に位置する操作タグを特定し、特定された操作タグを端末装置30に送信する。好適には、環境モデリングサーバ10の制御部12は、操作タグデータベース13に対して、端末装置30から受信した位置データの所定範囲内に存在する操作タグを出力させる。制御部12は、操作タグデータベース13から出力された操作タグを、端末装置30に対して通信部11を介して送信する。なお、図19に示したデータ構造を有するデータを単に"操作タグ"と簡略説明する場合があることは上述したとおりである。
Next, the operation tag is downloaded (S202). Specifically, the
次に、合成画像を生成する(S203)。端末装置30は、まず、環境モデリングサーバ10から受信した操作タグ(ID、基準位置、操作モデル、固有パラメータ(各プリミティブの位置姿勢パラメータ、形状パラメータ、操作モデルの内容))を一時的にバッファする。制御部32は、操作タグの位置を示す位置データを表示画像生成部33に供給する。表示画像生成部33は、仮想画像生成部33bに対して、その位置データが示す位置に操作タグアイコンが配置された仮想画像を生成するように指示する。表示画像生成部33は、合成画像生成部33cに対して、現在撮影表示される画像と、仮想画像生成部33bにより生成される仮想画像とに基づいて合成画像を生成することを指示する。表示部36は、合成画像生成部33cにより合成された合成画像を表示する。このようにして、図23に示すように、端末装置30によりユーザーに提示される現在ビューに対して操作タグアイコンが重畳表示される。
Next, a composite image is generated (S203). First, the
次に、操作タグアイコンの長押し有りか否かを判定する(S204)。端末装置30は、ユーザーによるタッチパネルの操作によって、操作タグアイコンがユーザーによって所定時間以上押されたか否かを検知する。例えば、2秒〜3秒程度の時間を閾値として用いる。詳細には、制御部32は、指示入力部37の入力に基づいて、操作タグアイコンが表示されている箇所に対してユーザーの指が所定時間以上配置されたか否かを判定する。
Next, it is determined whether or not the operation tag icon is pressed long (S204). The
操作タグアイコンの長押し有りの場合、操作タグのプロパティ表示が実行される(S205)。具体的には、端末装置30は、所定時間以上、ユーザーの指が操作タグアイコン上に配置されたことを検出すると、選択された操作タグに対して関連付けられているプロパティ―を表示する。制御部32は、長押しの検出に応じて、表示画像生成部33に対してプロパティ―画面が付加された画像の生成を指示する。表示画像生成部33は、メニュー生成部33aに対してプロパティ―画面の生成を指示し、合成画像生成部33cに対して現在の撮影画像に対してプロパティ―画面を付加した画像を生成させる。
If there is a long press of the operation tag icon, the property display of the operation tag is executed (S205). Specifically, when it is detected that the user's finger is placed on the operation tag icon for a predetermined time or longer, the
プロパティ―として表示される具体的情報は、好適には、操作モデルの内容又はこれから算出される情報である。例えば、図24に示すように、図19に示した固有パラメータ(軌道:初期位置;終点位置)から算出される開き幅が表示される。また、図19に示した操作モデルの固有パラメータ(最大操作力)が表示される。 The specific information displayed as the property is preferably the content of the operation model or information calculated therefrom. For example, as shown in FIG. 24, the opening width calculated from the unique parameters (trajectory: initial position; end point position) shown in FIG. 19 is displayed. Further, the unique parameter (maximum operating force) of the operation model shown in FIG. 19 is displayed.
次に、プロパティ情報の変更指示が入力される(S206)。例えば、端末装置30は、最大操作力の表示箇所に対してユーザーの指がタッチしたことを検出すると、図25に示すような値変更画面をユーザーに提示する。具体的には、端末装置30は、最大操作力の表示枠を点灯表示し、かつ、値を入力するためのキーボードを表示する。これらの表示制御は、例えば、制御部32が、表示画像生成部33に対して適切な指令を与えることで実行される。一例としては、表示画像生成部33は、メニュー生成部33aに対してキーボード表示の生成を指示し、合成画像生成部33cに対してキーボード表示を現在ビューに対して組み込ませることを指示する。これによって、パラメータ変更が入力可能な状態となる。ユーザーは、表示されたキーボードをタッチして、最大操作力の値を変更する。変更値は、制御部32によって一時的に保持される。ユーザーによるキーボードの入力に応じて、表示部36の画面は、図25から図26に示す表示となる。
Next, a property information change instruction is input (S206). For example, when the
次に、変更値の反映準備を実行する(S207)。具体的には、端末装置30は、操作タグID、及び変更値等を環境モデリングサーバ10に対して送信する。環境モデリングサーバ10は、端末装置30からの受信データに基づいて、新たな変更値を操作タグデータベース13に格納等する。なお、実際の書き換え処理は、更新の確定を待って行われる。従って、変更値は、一時的に、データベースの空き容量にバッファされることになる。
Next, preparation for reflecting the changed value is executed (S207). Specifically, the
次に、変更の確認/実行が行われる(S208)。具体的には、環境モデリングサーバ10は、端末装置30に対して更新準備完了を示す信号を送信する。端末装置30は、環境モデリングサーバ10からの信号受信に応じて、ユーザーによって入力された更新値をユーザーに対して表示する。例えば、端末装置30は、変更がなされた図26に示す枠を点灯表示する。更新値が正しければ、ユーザーは、操作プロパティ―の表示部分以外の部分を指タッチする。これによって、更新が確定される。具体的には、制御部12は、操作プロパティ―の表示部分以外の部分を指タッチの検出を指示入力部37の出力から検知し、更新値が承認されたことを環境モデリングサーバ10に対して通知する。環境モデリングサーバ10は、この通知に応じて、実際に値を書き換える処理を実行する。このようにしてプロパティ―値(本例では、図19(b)に示した最大操作力)が更新される。更新内容に誤りがある場合、ユーザーは、再度、変更作業を繰り返すことになる。
Next, confirmation / execution of the change is performed (S208). Specifically, the
上述の作業を繰り返すことによって、図27に模式的に示すように、作業ロボット40の導入空間に配置されている構造物に対して仮想的に操作タグが付与される。
By repeating the above-described operation, an operation tag is virtually attached to the structure arranged in the introduction space of the
図28のフローチャートを参照して、環境モデリングサーバ10の操作タグデータベース13に格納された操作タグを活用して作業ロボット40に対して操作指示する手順について説明する。図29乃至図33も併せて参照して説明する。なお、図29乃至図33に示す画像は、端末装置30に表示されるものであるが、作業ロボット40によって取得された画像に基づいて生成された画像である。図28に示すフローチャートは、導入空間に対して作業ロボット40が配置され、ユーザーが作業ロボット40の取得画像を端末装置30を介して見ている状態が前提となっている。なお、これらの前提事項は、あくまで本発明の一態様であり、この開示に基づいて本願発明の技術的範囲が狭く解釈されることは許されない。
With reference to the flowchart of FIG. 28, a procedure for operating the
まず、被操作体の表示が実行される(S300)。作業ロボット40が取得した映像は、無線ネットワーク20を介して端末装置30へ転送され、端末装置30によって表示される。図9に模式的に示したように、作業ロボット40は、内蔵カメラで取得した画像を通信回線を介して端末装置30に対して供給可能に構成されている。なお、作業ロボット40と端末装置30間のデータ転送は、環境モデリングサーバ10を介在して実行されても良い。
First, the display of the operated object is executed (S300). The video acquired by the
次に、位置姿勢データの取得/送信が実行される(S301)。作業ロボット40は、作業ロボット40自身の現在位置を示す位置姿勢データを取得し、これを環境モデリングサーバ10に対して送信する。環境モデリングサーバ10は、作業ロボット40の現在位置に基づいて、その周囲に存在する操作タグを特定する。
Next, acquisition / transmission of position and orientation data is executed (S301). The
次に、操作タグのダウンロードが実行される(S302)。環境モデリングサーバ10は、無線ネットワーク20を介して、特定した操作タグを端末装置30へ送信する。
Next, the operation tag is downloaded (S302). The
次に、合成画像の生成をする(S303)。端末装置30は、環境モデリングサーバ10からダウンロードした操作タグに基づいて、図29に示すように、作業ロボット40から転送される現在ビューに対して操作タグアイコンが組み込まれたビューを生成して表示する(図29参照)。
Next, a composite image is generated (S303). Based on the operation tag downloaded from the
次に、操作タグアイコンの選択の有無が判断される(S304)。端末装置30は、指示入力部37の出力に基づいて、操作タグアイコンの表示部分に対してユーザーの指がタッチしたか否かを判定する。
Next, it is determined whether or not an operation tag icon has been selected (S304). Based on the output of the
操作タグアイコンの表示部分に対してユーザーの指がタッチすると、操作メニューが表示される(S305)。端末装置30は、ユーザーによる指タッチに応じて操作メニューを表示する(図30参照)。端末装置30によって表示される操作メニューの内容は、ユーザーによって選択された操作タグに関連付けられた操作モデルの内容に応じたものである。取っ手91aに割り当てられた動作モデルは、図18(a)に示すモデルであり、これに対応した情報(掴む/離す、開ける/閉じる)が表示される。
When the user's finger touches the display portion of the operation tag icon, an operation menu is displayed (S305). The
次に、操作内容が選択される(S306)。ユーザーは、表示された操作メニューから所望の動作内容を提示する領域をタッチする。例えば、ユーザーは、表示された操作メニューのうち掴むという操作アイコンを指定する(図30参照)。これに応じて、端末装置30は、ユーザーにより選択された動作内容を検出する。
Next, the operation content is selected (S306). The user touches an area where desired operation content is presented from the displayed operation menu. For example, the user designates an operation icon to be grabbed in the displayed operation menu (see FIG. 30). In response to this, the
次に、操作内容が指示される(S307)。端末装置30は、ユーザーにより入力された指示内容を、無線ネットワーク20を介して作業ロボット40へ送信する。端末装置30から作業ロボット40へのデータ転送は、環境モデリングサーバ10を介して実行されても良い点は上述したとおりである。
Next, an operation content is instructed (S307). The
次に、操作内容が実行される(S308)。作業ロボット40は、受信した操作指示に応じた操作内容を実行する。作業ロボット40は、掴むという指令に応じて、作業ロボット40の目標姿勢を算出し、現在姿勢を目標姿勢へ変化させる。これによって、図31に示すように、作業ロボット40が取っ手91aを把持した状態となる。
Next, the operation content is executed (S308). The
作業ロボット40の姿勢変化制御は、制御部42が、駆動制御部45を制御することによって実行される。駆動制御部45は、制御部42から伝達される制御指示に応じて、アクチュエータ等を実際に駆動制御する。
The posture change control of the
次に、端末装置30は、次操作指示有りか否かを判断する(S309)。端末装置30は、ユーザーによる次操作指示が有る場合、ステップS306〜S308を再度繰り返す。
Next, the
次サイクルにおいて、操作指示の選択が実行される(S306)。図31に示す状態が端末装置30に表示されると、ユーザーは、開ける/閉じるという操作アイコンを選択する。端末装置30は、図33に模式的に示すように、開ける/閉じる動作を定義づけるためのベクトルをユーザーに対して提示する。ユーザーは、取っ手91aをどの程度まで開くのかを指示するため、操作タグが表示された部分からベクトル上を指でなぞる。取っ手91aの移動が停止する位置において、ユーザーは、タッチパネル上から指を離す。これによって、端末装置30には、取っ手91aの移動の終点位置を検出することができる。
In the next cycle, an operation instruction is selected (S306). When the state shown in FIG. 31 is displayed on the
次に、端末装置30から作業ロボット40へ操作内容が転送される。次に、作業ロボット40は、受信した指示内容に応じた作業を実行する。このようなサイクルを繰り返すことによって、多段階的に、タンスの引き出しを開ける作業が実行される。また、ユーザがタッチパネルから指を離す前のドラッグ操作を逐一作業ロボットへ転送することで連続的に引き出しを開ける作業を実行させることもできる。
Next, the operation content is transferred from the
上述の説明では、円柱プリミティブと矩形プリミティブを活用して構造物の3次元形状を把握したが、幾何プリミティブの種類は任意である。図34に幾何プリミティブ例を示す。幾何プリミティブの具体的な形状は任意であり、図34(a)〜(f)に例示するような幾何形状を採用することができる。図34(a)は、点プリミティブである。図34(b)は、線プリミティブである。図34(c)は、矩形プリミティブである。図34(d)は、円柱プリミティブである。図34(e)は、立体プリミティブである。図34(f)は、2面プリミティブである。 In the above description, the three-dimensional shape of the structure is grasped by using the cylindrical primitive and the rectangular primitive, but the type of the geometric primitive is arbitrary. FIG. 34 shows an example of geometric primitives. The specific shape of the geometric primitive is arbitrary, and a geometric shape illustrated in FIGS. 34A to 34F can be adopted. FIG. 34A shows a point primitive. FIG. 34B shows a line primitive. FIG. 34C shows a rectangular primitive. FIG. 34D shows a cylindrical primitive. FIG. 34E shows a three-dimensional primitive. FIG. 34 (f) shows a two-sided primitive.
上述の説明から明らかなように、本実施形態では、各構造物に対して仮想的に操作タグが付与され、各構造物に対して成す作業ロボットの操作内容は、操作対象の構造物に対して事前設定された操作タグに基づいて実行される。操作タグは、被操作体の位置を示すデータ、その被操作体の3次元計測により取得した立体画像に対して幾何プリミティブを適応させて得られるデータ、およびその被操作体に対して成すべき操作内容を示すデータを含む。操作タグの設定自体は、システムを購入したユーザー側にて任意に行うことができるため、作業ロボットが導入される環境のモデル化の負担を大きく低減することが可能になる。また、幾何プリミティブの適応によって操作対象物の幾何特性を検知することができるため、大きさ、形状、場所等の異なる様々な構造物に対して同種の操作を実現可能になる。 As is clear from the above description, in this embodiment, operation tags are virtually assigned to each structure, and the operation content of the work robot performed on each structure is the same as the operation target structure. And executed based on the preset operation tag. The operation tag includes data indicating the position of the operated object, data obtained by applying a geometric primitive to a stereoscopic image acquired by three-dimensional measurement of the operated object, and an operation to be performed on the operated object. Contains data indicating content. The setting of the operation tag itself can be arbitrarily performed by the user who purchased the system, so that the burden of modeling the environment in which the work robot is introduced can be greatly reduced. In addition, since the geometric characteristics of the operation target can be detected by applying the geometric primitive, the same kind of operation can be realized for various structures having different sizes, shapes, places, and the like.
実施の形態2
図35乃至図40を参照して本発明の実施の形態2について説明する。本実施形態では、実施の形態1の手順に加えて、操作タグが付与される構造物の周辺に存在する幾何特徴(特徴)を抽出して、この幾何特徴を空間的に特定するデータを操作タグ内に記憶する。操作タグは、登録された幾何特徴を空間的に特定するデータ(以下、特徴特定データと呼ぶ場合がある)を包含する。その後、同構造物に対して操作タグを重畳表示する際、過去に登録された幾何特徴を、現在取得した幾何特徴に対してフィッティングする。操作タグ内では、登録済みの位置データの相対的な関係が記憶されているため、過去に登録された幾何特徴に対して現在の幾何特徴をフィッティングすることで、今、表示すべき情報の表示位置が定まる。例えば、操作タグを重畳表示する際に、位置データ取得時の誤差(端末装置30の位置姿勢等)や表示時の誤差(端末装置或いはロボットの位置姿勢等)によって操作対象と操作タグの表示にずれが生じる。しかし、ある構造物に対して付与される操作タグ内に、その構造物の周囲にある幾何特徴の空間位置を盛り込むことによって、表示されるべき情報の位置を修正した状態でその情報を表示することが可能になる。また、操作によって可動する構造物(半開きの扉等)のように、その軌道上ではあるがデータ記録時とは異なる場所に位置することもある。そのような場合、記録されたタグ位置から軌道に沿って、幾何学特徴の探索範囲を広げることで効率良くフィッティングを実施可能となる。これによって、より的確な表示をユーザーに対して提示することが可能になる。また、構造物の位置の変動を吸収することが可能になる。なお、抽出される特徴の種類は任意であり、幾何的な特徴に限らず、周囲に存在する物の色等であっても構わない。
A second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, in addition to the procedure of the first embodiment, a geometric feature (feature) existing around the structure to which the operation tag is attached is extracted, and data for spatially specifying the geometric feature is manipulated. Store in the tag. The operation tag includes data for spatially specifying a registered geometric feature (hereinafter sometimes referred to as feature specifying data). Thereafter, when the operation tag is superimposed and displayed on the structure, a geometric feature registered in the past is fitted to the currently acquired geometric feature. Since the relative relationship of the registered position data is stored in the operation tag, it is possible to display the information to be displayed now by fitting the current geometric feature to the geometric feature registered in the past. The position is fixed. For example, when the operation tag is displayed in a superimposed manner, the operation target and the operation tag are displayed depending on an error at the time of position data acquisition (position and orientation of the terminal device 30) and an error at the time of display (position and orientation of the terminal device or robot). Deviation occurs. However, by including the spatial position of the geometric feature around the structure in the operation tag given to the structure, the information is displayed with the position of the information to be displayed corrected. It becomes possible. Moreover, it may be located on a different place from the time of data recording, such as a structure (such as a half-open door) that is movable by an operation, but on the track. In such a case, fitting can be performed efficiently by expanding the search range of the geometric feature along the trajectory from the recorded tag position. This makes it possible to present a more accurate display to the user. Moreover, it becomes possible to absorb the fluctuation | variation of the position of a structure. Note that the type of feature to be extracted is arbitrary, and is not limited to a geometric feature, and may be the color of an object existing around the feature.
図35に示すように、環境モデリングサーバ10は、周辺特徴抽出部16、特徴フィッティング実行部17を有する。周辺特徴抽出部16は、図36に模式的に示すように、キャプチャ画像に対して画像処理によって、取っ手91aと取っ手91aの取り付け面との間にある任意の種類と数の幾何特徴SL1〜SL4を抽出する。周辺特徴抽出部16は、図37に模式的に示すように、キャプチャ画像内において抽出された幾何特徴位置を操作タグデータベースに格納する。幾何特徴SL1、SL3は、円柱面によって位置、姿勢、直径、及び長さが特定される。幾何特徴SL2、SL4は、円弧エッジによって、中心、半径、傾き、始点終点角度が特定される。なお、操作タグには、特徴画像として、特徴的な画像部分のピクセルデータも格納可能に構成されている。このようにして過去の時点において、抽出された特徴の空間的な位置が操作タグ内に記憶される。
As illustrated in FIG. 35, the
その後、周辺特徴抽出部16は、同構造物に対して操作タグを表示させる際、同様に、同構造物の周囲にある幾何特徴を抽出する。特徴フィッティング実行部17は、今回抽出された幾何特徴に対して過去の幾何特徴をフィッティングさせる。これによって、操作タグに格納された他の位置データ(図19(a)に示す基準位置、図19(b)に示される初期位置等)の表示位置を実際の操作対象物に対してより精度良く位置決め可能となる。これによって、操作タグ内に登録された位置データの誤差や端末或いはロボットの位置姿勢計測誤差等に依存することなく、適切な表示位置にて情報をユーザーに提示することが可能になる。
Thereafter, when the operation feature is displayed on the structure, the peripheral
図38に示すように、S106のステップによりフィッティングOKが判定されると、上述のように、特徴の抽出をする(S109)。次に、上述のように、抽出された特徴の空間位置を特定するためのデータも含めて操作タグを記憶する(S107)。 As shown in FIG. 38, when fitting OK is determined in step S106, the feature is extracted as described above (S109). Next, as described above, the operation tag is stored including the data for specifying the spatial position of the extracted feature (S107).
図39に示すように、端末装置30に対して操作タグ内に包含される位置データに基づいた情報を提示する場合、まず、周辺の幾何特徴の抽出を行う(S201)。次に、現在ビューに表示されるべき操作タグを検索する(S202)。次に、検索により得られた操作タグの幾何特徴を、S201によって得られた幾何特徴に対してフィッティングする(S203)。次に、フィッティングにより特定される位置姿勢と操作タグの幾何プリミティブとの相対関係の記録データから操作タグの幾何プリミティブの位置姿勢を修正して情報を表示する(S204)。このようにして、新旧の特徴の空間的な位置のフィッティングから情報の表示位置精度をより高めることができる。これにより、適当な位置に情報を提示することが可能になる。フィッティングから得られる位置に基づいて、データベースにある操作タグ内の位置データの値を修正しても良い。このような修正作業を繰り返すことによって、操作タグ内の位置データの精度を高めることが可能になる。
As shown in FIG. 39, when the information based on the position data included in the operation tag is presented to the
図40に模式的に示すように、被操作体が図18(d)に示すものであれば、その周囲に存在する枠のエッジを特徴点として抽出するとよい。 As schematically shown in FIG. 40, if the object to be operated is the one shown in FIG. 18D, the edge of the frame existing around it may be extracted as the feature point.
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、端末装置30の機能と作業ロボット40の機能とを部分的に共通化しても良い。端末装置30の具体的な形状は任意である。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the function of the
100 システム
10 環境モデリングサーバ
11 通信部
12 制御部
13 操作タグデータベース
14 操作タグ生成部
15 フィッティング実行部
16 周辺特徴抽出部
17 特徴フィッティング実行部
20 無線ネットワーク
30 端末装置
31 通信部
32 制御部
33 表示画像生成部
36 表示部
37 指示入力部
38 3D画像取得部
39 位置姿勢情報取得部
40 作業ロボット
41 通信部
42 制御部
43 画像取得部
44 位置姿勢情報取得部
45 駆動制御部
90 構造物
100 system
DESCRIPTION OF
40
Claims (13)
前記幾何情報の生成対象である前記被操作体の空間位置を示す位置情報を取得し、
前記被操作体に対して作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する、操作環境モデル構築システム。 Applying geometric primitives to the stereoscopic image obtained by measurement of the operated object to generate geometric information indicating the geometric characteristics of the operated object,
Obtaining position information indicating a spatial position of the object to be operated which is a generation target of the geometric information;
An operation environment model construction system that stores operation information indicating operation contents to be performed on the object to be operated by a work robot in association with the generated geometric information and the acquired position information.
前記特徴を再度抽出し、今回抽出した前記特徴に対して登録済みの前記特徴を空間的にフィッティングし、事前登録された前記特徴に対して相対位置が定められた情報を前記フィッティングの結果に応じた位置に表示することを特徴とする請求項1乃至9のいずれか一項に記載の操作環境モデル構築システム。 Extracting a feature around the object to be operated, storing the spatial position of the feature in advance,
The feature is extracted again, the feature already registered with respect to the feature extracted this time is spatially fitted, and information on the relative position with respect to the pre-registered feature is determined according to the result of the fitting The operation environment model construction system according to claim 1, wherein the operation environment model construction system is displayed at a selected position.
ユーザーにより持ち運び可能な端末装置と、
前記端末装置に対して通信可能に接続されたサーバと、を含み、
前記端末装置は、前記位置情報の取得を実行し、
前記サーバは、前記幾何情報の生成を実行する。 The operation environment model construction system according to any one of claims 1 to 10,
A terminal device that can be carried by the user;
A server communicably connected to the terminal device,
The terminal device executes the acquisition of the position information,
The server executes generation of the geometric information.
前記操作環境モデル構築システムに対して通信可能に構成された作業ロボットと、
を備えるシステムであって、
前記作業ロボットは、前記被操作体の位置を特定するための位置情報を前記サーバに対して送信し、
前記サーバは、前記作業ロボットから受信した前記位置情報に対して関連付けられた前記操作情報を前記端末装置に対して送信し、
前記端末装置は、前記サーバから送信した前記操作情報に基づいて、前記作業ロボットに対する作業指示の入力を前記ユーザーに対して要求する。 An operation environment model construction system according to claim 11;
A work robot configured to be able to communicate with the operation environment model construction system;
A system comprising:
The work robot transmits position information for specifying the position of the operated body to the server,
The server transmits the operation information associated with the position information received from the work robot to the terminal device;
The terminal device requests the user to input a work instruction for the work robot based on the operation information transmitted from the server.
前記システムは、前記幾何情報の生成の被対象物である前記被操作体の空間位置を示す位置情報を取得し、
前記システムは、作業ロボットにより行われるべき操作内容を示す操作情報を、生成された前記幾何情報及び取得された前記位置情報に対して関連付けて記憶する、操作環境モデルの構築方法。 The system generates geometric information indicating a geometric characteristic of the operated object by adapting a geometric primitive to a stereoscopic image obtained by measurement of the operated object,
The system acquires position information indicating a spatial position of the object to be operated, which is an object for generating the geometric information,
A method for constructing an operation environment model, wherein the system stores operation information indicating an operation content to be performed by a work robot in association with the generated geometric information and the acquired position information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010291772A JP5659787B2 (en) | 2010-12-28 | 2010-12-28 | Operation environment model construction system and operation environment model construction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010291772A JP5659787B2 (en) | 2010-12-28 | 2010-12-28 | Operation environment model construction system and operation environment model construction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012135858A true JP2012135858A (en) | 2012-07-19 |
JP5659787B2 JP5659787B2 (en) | 2015-01-28 |
Family
ID=46673743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010291772A Active JP5659787B2 (en) | 2010-12-28 | 2010-12-28 | Operation environment model construction system and operation environment model construction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5659787B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015531692A (en) * | 2012-09-05 | 2015-11-05 | クアルコム,インコーポレイテッド | Robot control information |
CN108181636A (en) * | 2018-01-12 | 2018-06-19 | 中国矿业大学 | Petrochemical factory's crusing robot environmental modeling and map structuring device and method |
WO2021117868A1 (en) * | 2019-12-13 | 2021-06-17 | 川崎重工業株式会社 | Robot system and method for forming three-dimensional model of workpiece |
WO2023170764A1 (en) * | 2022-03-07 | 2023-09-14 | ファナック株式会社 | Device for generating search program for robot |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256025A (en) * | 2001-12-25 | 2003-09-10 | National Institute Of Advanced Industrial & Technology | Robot motion teaching method and device |
JP3713021B2 (en) * | 2003-02-17 | 2005-11-02 | 松下電器産業株式会社 | Article handling system and robot operating device for living space |
JP3738256B2 (en) * | 2003-03-05 | 2006-01-25 | 松下電器産業株式会社 | Article movement system for living space and robot operation device |
JP2008068348A (en) * | 2006-09-13 | 2008-03-27 | National Institute Of Advanced Industrial & Technology | Robot work teaching system and work teaching method for robot |
JP4153528B2 (en) * | 2006-03-10 | 2008-09-24 | ファナック株式会社 | Apparatus, program, recording medium and method for robot simulation |
JP2009214212A (en) * | 2008-03-10 | 2009-09-24 | Toyota Motor Corp | Action teaching system, and action teaching method |
-
2010
- 2010-12-28 JP JP2010291772A patent/JP5659787B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256025A (en) * | 2001-12-25 | 2003-09-10 | National Institute Of Advanced Industrial & Technology | Robot motion teaching method and device |
JP3713021B2 (en) * | 2003-02-17 | 2005-11-02 | 松下電器産業株式会社 | Article handling system and robot operating device for living space |
JP3738256B2 (en) * | 2003-03-05 | 2006-01-25 | 松下電器産業株式会社 | Article movement system for living space and robot operation device |
JP4153528B2 (en) * | 2006-03-10 | 2008-09-24 | ファナック株式会社 | Apparatus, program, recording medium and method for robot simulation |
JP2008068348A (en) * | 2006-09-13 | 2008-03-27 | National Institute Of Advanced Industrial & Technology | Robot work teaching system and work teaching method for robot |
JP2009214212A (en) * | 2008-03-10 | 2009-09-24 | Toyota Motor Corp | Action teaching system, and action teaching method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015531692A (en) * | 2012-09-05 | 2015-11-05 | クアルコム,インコーポレイテッド | Robot control information |
CN108181636A (en) * | 2018-01-12 | 2018-06-19 | 中国矿业大学 | Petrochemical factory's crusing robot environmental modeling and map structuring device and method |
CN108181636B (en) * | 2018-01-12 | 2020-02-18 | 中国矿业大学 | Environment modeling and map building device and method for petrochemical plant inspection robot |
WO2021117868A1 (en) * | 2019-12-13 | 2021-06-17 | 川崎重工業株式会社 | Robot system and method for forming three-dimensional model of workpiece |
JP6905651B1 (en) * | 2019-12-13 | 2021-07-21 | 川崎重工業株式会社 | How to form a 3D model of a robot system and work |
WO2023170764A1 (en) * | 2022-03-07 | 2023-09-14 | ファナック株式会社 | Device for generating search program for robot |
Also Published As
Publication number | Publication date |
---|---|
JP5659787B2 (en) | 2015-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8355816B2 (en) | Action teaching system and action teaching method | |
JP6810093B2 (en) | Robot simulation device | |
JP6526098B2 (en) | Operating device for operating a robot, robot system, and operating method | |
US20190240573A1 (en) | Method for controlling characters in virtual space | |
JP2020055075A (en) | Robot control device using augmented reality and composite reality and display device | |
CN106256512B (en) | Robot device including machine vision | |
CN103365411A (en) | Information input apparatus, information input method, and computer program | |
CN104897091A (en) | Articulated arm coordinate measuring machine | |
CN110888428B (en) | Mobile robot, remote terminal, computer readable medium, control system, and control method | |
Frank et al. | Toward mobile mixed-reality interaction with multi-robot systems | |
JP2008275341A (en) | Information processor and processing method | |
US11833697B2 (en) | Method of programming an industrial robot | |
JP5659787B2 (en) | Operation environment model construction system and operation environment model construction method | |
JP2015138345A (en) | Information processing device, information processing system, block system, and information processing method | |
US10347026B2 (en) | Information processing apparatus with location based display | |
US20230347509A1 (en) | Robot control apparatus, robot control method, and program | |
JP6902369B2 (en) | Presentation device, presentation method and program, and work system | |
CN110603122A (en) | Automated personalized feedback for interactive learning applications | |
JP6193135B2 (en) | Information processing apparatus, information processing system, and information processing method | |
CN111459277A (en) | Mechanical arm teleoperation system based on mixed reality and interactive interface construction method | |
KR20190059726A (en) | Method for processing interaction between object and user of virtual reality environment | |
JP2012156836A (en) | Remote controller and program | |
JP6177145B2 (en) | Information processing apparatus and information processing method | |
JP2022163836A (en) | Method for displaying robot image, computer program, and method for displaying robot image | |
JP6809267B2 (en) | Information processing equipment, information processing systems and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5659787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |