JP2016129922A - 表示制御装置及びその方法、プログラム - Google Patents

表示制御装置及びその方法、プログラム Download PDF

Info

Publication number
JP2016129922A
JP2016129922A JP2015005287A JP2015005287A JP2016129922A JP 2016129922 A JP2016129922 A JP 2016129922A JP 2015005287 A JP2015005287 A JP 2015005287A JP 2015005287 A JP2015005287 A JP 2015005287A JP 2016129922 A JP2016129922 A JP 2016129922A
Authority
JP
Japan
Prior art keywords
robot
information
display
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015005287A
Other languages
English (en)
Other versions
JP6576042B2 (ja
Inventor
哲理 園田
Tetsutoshi Sonoda
哲理 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015005287A priority Critical patent/JP6576042B2/ja
Priority to US14/991,220 priority patent/US9884424B2/en
Publication of JP2016129922A publication Critical patent/JP2016129922A/ja
Application granted granted Critical
Publication of JP6576042B2 publication Critical patent/JP6576042B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37092Display position actual and or target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40169Display of actual situation at the remote site
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)

Abstract

【課題】 処理対象の状態の視認性を向上する。
【解決手段】 ロボット及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する。計測情報に基づく、観察者が観察可能な表示情報を生成する。表示情報に基づいて、処理対象の一部の特徴を強調した強調表示情報を生成する。強調表示情報と、表示情報中の強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する。合成表示情報を表示部に出力する。
【選択図】 図1

Description

本発明は、ロボットの動作を表示する表示制御技術に関するものである。
ロボットの動作教示において、部品等の対象物体の移動や、嵌め込み動作を教示する際に、その位置、姿勢のずれや、ターゲットの嵌め込み時に生じる力を教示者に可視化すると、状況の把握に役立つことが知られている。非特許文献1においては、ロボットの手先に取り付けられたカメラの画像に、対象との位置・姿勢ずれ、作用する力等の情報を、三次元空間のXYZ各軸について矢印の大きさとグラフで重畳表示して、教示者を補助するユーザインタフェースを提案している。
第1回「次世代ロボット知能化技術開発プロジェクト」(事後評価)分科会 資料5−1
しかしながら、矢印やグラフで情報を可視化する方法は、例えば、位置ずれ、姿勢ずれ、作用する力の全てを一度に可視化するような場合には、多くの矢印やグラフで画像の表示内容が非常に煩雑になり、教示者の直感的な把握を妨げてしまうことがある。
本発明は上記の課題に鑑みてなされたものであり、処理対象の状態の視認性を向上することができる表示技術を提供することを目的とする。
上記の目的を達成するための本発明による表示制御装置は以下の構成を備える。即ち、
ロボットの動作を表示する表示制御装置であって、
前記ロボット、及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する取得手段と、
前記計測情報に基づく、観察者が観察可能な表示情報を生成する生成手段と、
前記表示情報に基づいて、前記処理対象の一部の特徴を強調した強調表示情報を生成する強調手段と、
前記強調表示情報と、前記表示情報中の前記強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する整合手段と、
前記合成表示情報を出力する出力手段と
を備える。
本発明によれば、処理対象の状態の視認性を向上することができる表示技術を提供できる。
実施形態1のシステム構成を示す図である。 実施形態1の動作を説明するフローチャートである。 実施形態1の撮像画像を示す図である。 実施形態1の各部の位置姿勢を示す図である。 実施形態1の位置ずれ画像を示す図である。 実施形態1の強調画像を示す図である。 実施形態1の強調領域を示す図である。 実施形態1の合成画像を示す図である。 実施形態1の整合領域を示す図である。 実施形態1の整合画像を示す図である。 実施形態2のシステム構成を示す図である。 実施形態2の動作を説明するフローチャートである。 実施形態2の仮想的に構築されたロボット環境を示す図である。 実施形態3のシステム構成を示す図である。 実施形態3の動作を説明するフローチャートである。 その他の実施形態の、接触で生じた作用力によって、撮像画像中の対象部品を変形させて強調する前後の様子を示す図である。 その他の実施形態の固定部品に対する対象部品の角度ずれを強調する前後の様子を示す図である。 その他の実施形態のフィンガと対象部品の速度を強調する前後の様子を示す図である。 その他の実施形態のフィンガの三次元形状を並進、回転させて強調した対象部品と整合性を取る前後の様子を示す図である。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
以下では、ロボット(例えば、アーム型ロボット)の先端に装着された撮像装置(カメラ)からの撮像画像を用いて、教示時に必要な位置情報を強調した上で可視化(表示制御)するロボット情報表示システム(表示制御装置)について説明する。
従来のシステムでは、カメラの撮像画像に対して、操作対象の各軸方向の位置ずれや角度ずれ等の情報を、矢印の大きさやグラフで重畳表示していた。しかし、多くの情報を重畳表示した場合、画面内容が煩雑になり、微小なずれが視認しにくい問題がある。
そこで、本実施形態では、撮像画像中のロボットあるいはロボットが操作する対象の一部の変位と大きさを強調した上で可視化を行い、観察者に出力する。これにより、ロボットの教示時に、観察者はカメラによる撮像画像を用いた合成画像を観察することで、直感的かつ容易に、対象物の位置ずれを確認できる。
図1は、ロボットが把持して嵌め込みを行う部品の撮像画像中の微小な位置ずれを強調して、観察者に出力するロボット情報表示システム全体の構成を示す。
ロボット101は、先端に取り付けられたフィンガ102を用いて対象部品103を把持して、動かないように固定された固定部品104へ嵌め込み動作を行うように配置されている。カメラ105は、ロボット101上のフィンガ102の後方に配置されており、フィンガ102、フィンガ102が把持する対象部品103、固定部品104の状態を撮影し、撮像画像を出力する撮像部として機能する。トラッカー106は、トラッカー106自身を基準位置として、ロボット101の先端に取り付けられたターゲットコイル107の位置姿勢を計測する。
画像入力部108は、カメラ105に接続されており、カメラ105で撮像した撮像画像を取得し、入力画像として保持する。計測情報取得部109は、計測情報として、トラッカー106で取得したターゲットコイル107の現在の位置姿勢を示す位置姿勢情報を取得し、保持する。また、計測情報取得部109は、予め計測された、ロボット101のフィンガ102とターゲットコイル107の位置関係、固定部品104の位置等、ロボット101とその周辺の環境に関する環境情報を保持する。
表示情報変換部110は、撮像画像と、計測情報取得部109が保持する環境情報と計測情報とから、撮像画像を加工することで、表示情報としての位置ずれ画像を生成する。位置ずれ画像は、後述する撮像画像に対象部品103、固定部品104の位置情報を付加して、双方の位置ずれを可視化したものである。
表示情報強調部111は、位置ずれ画像の中から、強調表示するべき対象部品103、固定部品104のみの画像を抽出、拡大して強調表示情報である強調画像を生成する。表示整合部112は、強調画像と、位置ずれ画像中の対象部品103、固定部品104に対応する画像を除く領域を非強調表示情報として、双方を違和感が出ないように整合性を取って合成し、合成画像(合成表示情報)を生成する。表示出力部113は、液晶モニタ等の表示部114に接続されており、生成した合成画像を観察者に対して視認できるように出力する。
尚、図1に示すシステムは、図示の構成要素以外に、CPU、ROM、RAM等のコンピュータに搭載される構成要素を備えている。そして、このCPUが、ROMに記憶されているプログラムを読み出し、RAM上で実行することで、図1に示す各種構成要素の動作を制御する。また、画像入力部108〜表示出力部113までの各種構成要素は、専用のハードウェアで実現されても良いし、CPUによって実行されるプログラム(ソフトウェア)で実現されても良い。
図2に、ロボット101の先端に装着されたカメラ105からの撮像画像を用いて、教示に必要な位置情報を強調した上で可視化する動作を説明するフローチャートを示す。尚、このフローチャートが示す処理は、CPUが、ROMに記憶されているプログラムを読み出し実行することで実現される。
S201で、カメラ105が、カメラ105前方に位置するフィンガ102、フィンガ102が把持する対象部品103、固定部品104の状態/様子を撮像する。これによって得られる撮像画像の一例が、図3に示す撮像画像301である。図3に示すように、撮像画像301には、フィンガ102、対象部品103、及び固定部品104それぞれの画像が含まれている様子を示している。
S202で、画像入力部108が、撮像画像を入力画像として取得し、保持する。S203で、計測情報取得部109が、計測情報を取得する。具体的には、計測情報取得部109は、図4に示すように、トラッカー106を基準位置として、ロボット101の先端に取り付けられたターゲットコイル107の位置姿勢Pcを計測情報として取得する。位置姿勢Pcは、以下で説明するように、トラッカー106を用いて計測する。
トラッカー106は、その内部に直交する3軸各方向に送信用コイルを備えており、所定周波数の交流磁界をその空間に発生させる。また、ターゲットコイル107は、その内部に直交する3軸各方向に受信用コイルを備えており、交流磁界内で電磁誘導による起電力が発生する。受信コイル全体の起電力の大きさを、予め計測しておいた各位置における値と比較することで、トラッカー106とターゲットコイル107間の距離を計測することができる。また、送信コイルの各軸での磁界発生時における受信コイルの各軸の起電力の大きさを比較することで、受信コイル、即ち、ターゲットコイル107の3軸での姿勢を計測することができる。
トラッカー106は、これらの計測値を用いて、ターゲットコイル107の位置姿勢Pcを計測する。Pcは、以下の(1)式の様にそれぞれ回転行列Rcと並進ベクトルTcを合わせた4×4のAffine行列で表わされる。以下、同様に記載する位置姿勢も、同様のAffine行列で表わされるものとする。位置姿勢Pcは、トラッカー106で計測後、計測情報として計測情報取得部109に転送、保持される。
Figure 2016129922
また、計測情報取得部109は、環境情報として、予め計測したターゲットコイル107を基準位置としたカメラ105の位置姿勢Pa、フィンガ102の先端の位置姿勢Pfを保持している。更には、計測情報取得部109は、環境情報として、位置姿勢Pfを基準にした対象部品103の嵌め込み位置姿勢Pt、トラッカー106を基準位置とした固定部品104の嵌め込み位置姿勢Pxを保持している。また、計測情報取得部109は、予め計測したカメラ105のカメラ内部パラメータである焦点距離fと、対象部品103及び固定部品104の三次元形状情報であるCADデータも保持している。尚、本実施形態で用いるカメラ105の原点位置と、画像の中心は一致するものとする。
S204で、表示情報変換部110が、撮像画像301、計測情報取得部109が保持する環境情報と計測情報を用いて、表示情報を生成する。図5に、表示情報の一例である、位置ずれ画像501を示す。
最初に、表示情報変換部110は、計測情報取得部109から計測情報である位置姿勢Pcを取得する。同様に、表示情報変換部110は、計測情報取得部109から環境情報である各種位置姿勢Pa、Pf、Pt、Pxを取得する。また、表示情報変換部110は、計測情報取得部109から、予め計測したカメラ105の焦点距離fと、対象部品103及び固定部品104のCADデータも取得する。
次に、表示情報変換部110は、カメラ105から観察した撮像画像上における対象部品103の嵌め込み位置Ttc、固定部品104の嵌め込み位置Txcを計算する。Ttc、Txcは、各構成要素の位置姿勢を用いて下記の(2)式で計算できる。
Figure 2016129922
ここで、(2)式におけるProjは、カメラ105の投影行列であり、焦点距離fを用いて下記の(3)式で表わされる。
Figure 2016129922
表示情報変換部110は、撮像画像301に対して、図5に示すように、計算した嵌め込み位置Ttc、Txcの位置上にクロスヘアカーソル502及び503を描画する。これらは、対象部品103と固定部品104の嵌め込み位置のずれを可視化する表示情報として機能する。更に、表示情報変換部110は、嵌め込み位置Ttc、Txc上にそれぞれ対象部品103、固定部品104の三次元形状のエッジ部分504を表示情報として描画する。この時、カメラ105の視点から隠れて直接観察できない隠れエッジ部分は点線で描画する。これにより、固定部品104の見え方が対象部品103によって大きく遮られている場合でも、固定部品104の位置を視認することができる。
S205で、表示情報強調部111が、表示情報を強調するための強調画像を生成する。具体的には、表示情報強調部111は、位置ずれ画像501の中から、強調表示するべき対象部品103と、固定部品104の嵌め込み部505のみを抽出・拡大し、強調表示情報として、図6に示すような強調画像601を生成する。
まず、S203で計算した嵌め込み位置Ttc、Txcに、対象部品103、固定部品104の三次元形状を描画した領域から、図5の位置ずれ画像501における対象部品103と、固定部品104の嵌め込み部505に相当する強調対象領域701(図7)を抽出する。次に、抽出した強調対象領域701を、嵌め込み位置Ttc、Txcの中点位置Tcenterを中心として、例えば、拡大率M=1.5倍で拡大し、図6に示す強調画像601を生成する。
これにより、位置ずれ画像501上では、確認が難しかった、対象部品103と固定部品104間の微小な位置ずれを拡大して強調することで、位置ずれの把握を容易に確認することができる。
S206で、表示整合部112が、位置ずれ画像501と強調画像601との表示整合を行う。具体的には、表示整合部112は、非強調表示情報である位置ずれ画像501と、強調表示情報である強調画像601を違和感が生じないように整合性を持たせて合成する。図8に合成画像801の一例を示す。
ここでは、まず、表示整合部112は、S204で変換した位置ずれ画像501における強調対象領域701を1.7倍に拡大した領域と、強調対象領域701の領域の差として、図9に示す整合領域901を抽出する。次に、表示整合部112は、整合領域901内で、中心Tcenterに最も近い領域の拡大率Mに等しい1.5倍、最も遠い領域を当倍、その間の拡大率をグラデーション的に変化させて画像の変形を行い、図10に示す整合画像1001を生成する。更に、表示整合部112は、位置ずれ画像501に対して、整合画像1001、強調画像601の順序で重畳することで、合成画像801を生成する。これにより、位置ずれ画像501と強調画像601の間に不連続な部分が生じることなく、違和感のない統合を行うことができる。
この合成画像801は、元の撮像画像と変わらない視野を有しながら、注意するべき対象部品103、固定部品104の間の微小な位置ずれを簡単に把握することが可能となっている。その結果、画面内容を煩雑にすることなく、観察者は合成画像から位置ずれの情報を直感的に把握できるようになる。つまり、本実施形態では、強調画像601を生成することで、画像中の所定の関心領域(強調画像601)と他の領域とを容易に識別可能にすることができる。尚、本実施形態では、表示画像中の注目領域画像を拡大し、また、その濃度値(輝度値/画素値)を、それ以外の他の領域画像に比べて、高くすることで、画像の特性を強調した強調画像を生成しているが、これに限定されるものではない。例えば、濃度値ではなく、対象の注目領域画像に所定のパターンを施したり、鮮鋭化を施しても良い。
S207で、表示出力部113が、画像を出力する。具体的には、図8に示す合成画像801を表示部114上に出力し、観察者に提示する。観察者は、この表示部114の出力を通じて、教示時におけるロボットの位置ずれを確認することができる。
以上説明したように、本実施形態によれば、観察者はカメラによる撮像画像中のロボットあるいはロボットが操作する対象の一部の変位と大きさを強調した合成画像を観察することで、直感的かつ容易に位置ずれを確認できる。
<実施形態2>
実施形態2では、実施形態1における実際のロボットに関する情報を取得する代わりに、計算機で再現されたオフライン教示環境において、CG画像を用いて教示時に必要な位置情報を強調した上で可視化するロボット情報表示システムについて説明する。
従来のオフライン教示環境においても、ロボット環境を表すCG画像に対して、各軸方向の位置ずれや角度ずれ等の情報を、数値や矢印の大きさ、グラフで重畳表示していた。しかし、多くの情報を重畳表示した場合、画面内容が煩雑になり、微小なずれが視認しにくい問題もある。
そこで、本実施形態では、CG画像中のロボットあるいはロボットが操作する対象の一部の変位と大きさを強調した上で可視化を行い、観察者に出力する。これにより、ロボットのオフライン教示時に、観察者はCG画像を用いた合成画像を観察することで、直感的かつ容易に位置ずれを確認できる。
図11は、ロボットが把持して嵌め込みを行う部品のCG画像中の微小な位置ずれを強調して、観察者に出力するロボット情報表示システム全体の構成を示す。
環境再現部1101は、実施形態1におけるロボット101とその周辺環境の三次元形状と力学的な振舞いをシミュレーションによって再現し、図13に示す再現環境1301を仮想的に構築する。CG生成部1102は、仮想的に構築された再現環境1301に基づいて、図13に示す仮想カメラ1304から観察した視点のCG画像を生成する。
図11における画像入力部1108〜表示部1114は、それぞれ実施形態1の図1における画像入力部108〜表示部114に対応し、同様の機能を有する。但し、画像入力部1108は、入力画像としてCG画像を取得する。また、計測情報取得部1109は、計測情報を実施形態1におけるトラッカー106に代わって、環境再現部1101から計測情報を取得する。
尚、図11に示すシステムは、図示の構成要素以外に、CPU、ROM、RAM等のコンピュータに搭載される構成要素を備えている。そして、このCPUが、ROMに記憶されているプログラムを読み出し、RAM上で実行することで、図11に示す各種構成要素の動作を制御する。また、環境再現部1101〜表示出力部1113までの各種構成要素は、専用のハードウェアで実現されても良いし、CPUによって実行されるプログラム(ソフトウェア)で実現されても良い。
図12に、オフライン教示時に表示されるCG画像に対して、教示に必要な位置情報を強調した上で出力する動作を説明するフローチャートを示す。尚、このフローチャートが示す処理は、CPUが、ROMに記憶されているプログラムを読み出し実行することで実現される。
S1201で、環境再現部1101が、再現環境を生成する。具体的には、環境再現部1101は、実施形態1におけるロボット101とその周辺環境の三次元形状と力学的な振舞いをシミュレーションによって再現し、図13に示す再現環境1301を仮想的に構築する。再現環境1301は、図13に示す仮想ロボット1302、仮想フィンガ1303、仮想カメラ1304、仮想対象部品1305、仮想固定部品1306の形状を表すCADデータと、実施形態1の図4におけるPa、Pf、Pt、Pxに相当する各位置姿勢、ターゲットコイル107の位置姿勢Pcに相当する位置姿勢を生成するための仮想ロボット1302の各関節角度から構成されている。
S1202で、CG生成部1102が、生成した再現環境1301の情報に基づいて、仮想ロボット1302に搭載された仮想カメラ1304の視点から仮想ロボット1302とその周辺環境のCG画像を生成する。
次に、移行のS1203〜S1206は、実施形態1におけるS203〜S206と同様の動作を行う。但し、実施形態1のS202では、撮像画像301を入力画像としているが、S1202では、撮像画像301の代わりにCG画像を入力画像とする。また、実施形態1のS203では、トラッカー106から計測情報を取得しているが、S1203では、トラッカー106に代わりに再現環境1301を構築している環境再現部1101から計測情報を取得する。
以上説明したように、本実施形態によれば、観察者は生成されたCG画像中のロボットあるいはロボットが操作する対象の一部の変位と大きさを強調した合成画像を観察することで、直感的かつ容易に位置ずれを確認できる。
<実施形態3>
実施形態3では、実施形態1と同様に、出力された合成画像を観察した上で、強調された位置ずれの強調度合いに応じてロボットの動作ゲインを変化させ、実際にロボットを操作することができるロボット情報表示システムについて説明する。
従来のシステムでは、ティーチングペンダントによる操作に対して、教示者が設定した一定の動作ゲインでロボットが動作する形式となっていた。しかし、目標位置から遠い場合には動作ゲインが足りず、目標位置に近い場合には動作ゲインを増やす必要があり、しかも目標値に正確に位置合わせするためにはロボットの動きを細かく観察して位置ずれを確認する必要があった。
本実施形態では、撮像画像中のロボットあるいはロボットが操作する対象の一部の変位と大きさを強調することで、観察者は容易に位置ずれを確認することができる。更に、目標値の位置と現在位置の差に基づいて、位置ずれの強調度合いを自動的に変化させ、強調度合いとロボットの動作ゲインを連動させる。これによって、目標位置から遠い場合には高速に、目標位置に近づくにつれて低速にロボットを動作させることができ、より複雑で繊細な動作を短時間かつ簡単に教示できるようになる。
図14に、ロボットが把持して嵌め込みを行う部品同士で接触した場合に発生する作用力を撮像画像中で強調して観察者に出力し、強調度合いに応じてロボットの動作ゲインを変更するロボット情報表示システム全体の構成を示す。
図14におけるロボット1401〜表示部1414は、それぞれ実施形態1の図1におけるロボット101〜表示部114に対応し、同様の機能を有する。但し、ロボット1401は、ロボット操作部(例えば、操作盤)1417からの操作信号に従って動作する。また、表示情報強調部1411は、強調度設定部1415で設定された強調度合いに基づいて強調画像を生成する。
強調度設定部1415は、計測情報取得部1409が有するロボット1401のフィンガ1402とターゲットコイル1407の位置関係、固定部品1404の位置等の、ロボット1401とその周辺の環境情報と、ターゲットコイル1407の位置姿勢Pcの計測情報に基づいて、表示情報強調部1411で生成する強調画像の強調度合いである拡大率を設定する。
動作ゲイン設定部1416は、強調度設定部1415で設定した拡大率に基づいて、ロボットの動作ゲインを設定する。ロボット操作部1417は、観察者の操作と、動作ゲイン設定部1416で設定された動作ゲインに基づいて、ロボット1401に制御パラメータを送信して、ロボットの動作を制御するロボット制御部として機能する。このロボット操作部1417は、操作ボタンや操作コントローラ、スイッチ等の物理的な操作部品で構成される。
尚、図14に示すシステムは、図示の構成要素以外に、CPU、ROM、RAM等のコンピュータに搭載される構成要素を備えている。そして、このCPUが、ROMに記憶されているプログラムを読み出し、RAM上で実行することで、図14に示す各種構成要素の動作を制御する。また、画像入力部1408〜表示出力部1413、強調度設定部1415及び動作ゲイン設定部1416までの各種構成要素は、専用のハードウェアで実現されても良いし、CPUによって実行されるプログラム(ソフトウェア)で実現されても良い。
図15に、ロボット先端に装着されたカメラからの撮像画像を用いて、教示に必要な位置情報を強調して可視化し、その強調度合いに応じてロボットの動作ゲインを設定してロボットを操作する動作を説明するフローチャートを示す。尚、このフローチャートが示す処理は、CPUが、ROMに記憶されているプログラムを読み出し実行することで実現される。
S1501〜S1504は、実施形態1におけるS201〜S204と同様の動作を行う。S1505で、強調度設定部1415が、位置ずれ画像に対する強調の度合いを示す強調度を設定する。特に、強調度設定部1415は、強調度として、拡大率Mを設定する。拡大率Mは、以下の(4)式で表わされる。
Figure 2016129922
ここで、αは拡大率Mの度合いを調整するための固定値を持つ係数であり、βは位置ずれが極小になった際に、拡大率の最大値をM=α/βとするための固定値を有する係数である。また、(4)式中のTx、Ttfcは以下の(5)式で表わされる。
Figure 2016129922
Pc、Pf、Pt、Px、は、それぞれ実施形態1における各位置姿勢と同一であり、計測情報取得部1409から取得する。このように、拡大率Mを動的かつ自動的に変化させることで、目標位置から遠い場合には強調を特に行わず、目標位置に近づくにつれて強調度合いを強め、微小な位置ずれを容易に確認することができるようになる。
S1506〜S1508は、実施形態1におけるS205〜S207と同様の動作を行う。S1509で、動作ゲイン設定部1416が、設定した拡大率Mに基づいて、ロボット1401の動作ゲインGを設定する。ロボット1401の動作ゲインGは、標準時をG=1として、ロボット1401の操作入力時の単位移動量の割合を設定する。動作ゲインGは、拡大率Mを用いて、以下の(6)式で表われるように、拡大率Mに応じて動的に変化させる。
Figure 2016129922
ここで、γは、拡大率Mに対して動作ゲインGの値を適切に調整するための固定値を有する比例係数であり、拡大率Mが最大値の時にG=1となるよう(7)式で表わされる。
Figure 2016129922
S1509で、ロボット操作部1417が、観察者のボタン入力によるロボット操作入力を受けて、ロボット1401を動作させる。ロボット1401の動作は、トラッカー1406を基準位置として、ロボット1401の手先のXYZ方向の三次元位置と、回転角度を観察者のボタン入力で変化させる。一度のボタン操作入力によるロボットの単位移動量Sは、以下の(8)式で表わされる。
Figure 2016129922
ここで、基本移動量sは基準となる最大速度であり、動作ゲインG=1、即ち、ロボットが目標位置から十分遠い場合に、高速に動作させる際の所定の速度を予め設定しておく。このように、動作ゲインGに応じて単位移動量Sを変化させることで、目標位置から遠い場合には高速に、目標位置に近づくにつれて低速にロボットを動作させることができ、迅速かつ正確にロボットを操作して目標値に位置合わせすることができる。
以上説明したように、本実施形態によれば、撮像画像中のロボットあるいはロボットが操作する対象の一部の変位と大きさを強調することで、観察者は容易に位置ずれを確認することができる。更に、目標値の位置と現在位置の差に基づいて強調度合いを自動的に変化させ、強調度合いとロボットの動作ゲインを連動させる。これによって、目標位置から遠い場合には高速に、目標位置に近づくにつれて低速にロボットを動作させることができ、より複雑で繊細な動作を短時間かつ簡単に教示できるようになる。
<その他の実施形態>
<複数個所と優先度を設定して強調>
実施形態1〜3における合成画像は、一か所の位置情報について強調を行っているが、これに限定されるものではない。例えば、対象物体を障害物に接触させずに、障害物付近を通過させる場合等、複数の接触する可能性のある部位の位置を拡大して強調してもよい。
尚、あまりに多くの個所を強調した場合、合成画像が撮像画像と大きく変化して、強調していない領域を確認しにくくなり、位置情報の直観的な把握が難しくなる問題がある。このため、強調する候補となる位置が多く存在する場合には、例えば、実施形態3の構成に対し、強調する位置(部位)を選択する機能である強調部位選択部を追加して、強調対象を制限する、あるいは、優先順位を設定するようにしてもよい。この時、強調部位選択部には、ロボットが目的とするタスク内容に対応して位置合わせを行う教示順序を予め設定しておき、現在の教示順序を観察者がロボット操作部で指定することによって、強調する位置を自動で選択させることができる。もちろん、ロボット操作部に撮像画像中の位置を指定するトラックパッド等の強調位置指定部を設けて、直接強調する位置を指示してもよい。
これにより、合成画像における強調する部分を限定することで、強調する候補となる位置が多くある場合にも、位置情報の直観的な把握が可能となる。
<作用力によって変形させる場合>
実施形態1〜3における強調画像は、教示時に必要な位置情報を強調しているが、これに限定されるものではない。その他、角度、速度、加速度、作用力等の変位量あるいは変化量に対して、拡大、移動、変形によって強調が可能な情報であれば、どのようなものでもよい。例えば、対象部品と固定部品間の接触等の作用で生じた作用力を、ロボットに力センサを付加して計測し、これを可視化、強調してもよい。図16に、ロボットのフィンガ1601で把持した対象部品1602の固定部品1603上の嵌め込み位置1604への嵌め込み時、接触点1605上での接触によって発生した作用力fの強調前画像(図16(a))と、強調後画像(図16(b))を示す。
この場合、対象部品1602の方が強度的に弱く壊れやすい物として、より着目するべき対象部品1602を、作用力fが生じた方向に縮小することで強調している。もちろん、強度比や硬さに比例させて双方ともに変形させてもよいし、摩擦によるせん弾力が発生している場合には、縮小でなくせん弾方向へ斜めに変形させてもよい。
これにより、本来は、撮像画像を観察しただけでは確認できない、作用力の発生位置と大きさを、直観的に把握できるようになる。
<角度ずれを強調する場合>
その他の例としては、対象部品と固定部品間で回転角度にずれが生じている場合、これを強調してもよい。図17に、ロボットのフィンガ1701で把持した矩形状の対象部品1702の固定部品1703への嵌め込み動作の教示時に生じた、角度ずれθの強調前画像(図17(a))と、強調後画像(図17(b))を示す。
対象部品1702は、固定部品1703の嵌め込み角度に対してθ=2°傾斜しており、このままでは、嵌め込むことができないものの、角度ずれはごく小さいため、図17(a)に示すように、そのままでは目視でずれを確認するのは困難である。そこで、図17(b)に示すように、角度ずれを10倍のθ’=20°とすることで、角度ずれを強調させる。この時、対象部品1702を把持しているフィンガ1701の傾斜も同様に変化させる。このフィンガ1701の角度変化で、合成画像に違和感が生じないように、必要に応じて表示整合部がロボットのその他の関節の角度の整合性を取った上で合成画像として出力する。
これにより、部品間の微小な角度ずれを直感的に把握できるようになる。
<速度もしくは加速度によって変形させる場合>
その他の例としては、ロボットの移動速度や加速度が情報として重要な場合は、対象部品やロボットのフィンガ等の大きさを強調することで、これを可視化、強調してもよい。図18に、ロボットのフィンガ1801で対象部品1802を保持したまま、移動方向1803に速度vで移動する動作時における、移動速度の強調前画像(図18(a))と、強調後画像(図18(b))を示す。
本例の場合、強調する対象であるフィンガ1801と対象部品1802を、移動方向1803に速度vに比例させて拡大することで強調している。もちろん、速度vでなく、加速度が情報として重要な場合には、加速度に応じて強調を行ってもよい。また、拡大するだけでなく、移動軌跡に沿って残像を出すような映像効果を付加してもよい。
これにより、背景に模様が乏しく、相対的な移動速度が分かりにくいような状況下でも、ロボットの移動する速度の大きさや向きを、直感的に把握できるようになる。
<強調度合いを自動/手動で調節>
実施形態3における合成画像の拡大率Mは、動的に(4)式を用いて自動的に設定しているが、これに限定されるものではない。拡大率Mを、自動もしくは手動で設定する構成であれば、どのようなものであってもよい。例えば、ロボット操作部に強調度調節部となるノブ等を増設して、観察者が拡大率を直接、操作できるようにしてもよい。これにより、操作は増えるものの、より観察者の意図する通りの強調を行うことができる。もちろん、実施形態3と同様に、手動で設定した拡大率Mに応じてロボットの動作ゲインGを変えてもよい。
<CGを描画する時点で強調、整合性を取る方法>
実施形態2における合成画像は、S1202で生成したCG画像を用いて強調を行っているが、これに限定されるものではない。CADデータに基づいて最終的に合成画像をCGとして出力できれば、その他の強調を実現する構成を用いてもよい。例えば、S1203でCG画像を生成する代わりに計測情報取得部1109から取得した仮想対象部品1305、仮想固定部品1306のCADデータ中の三次元形状を保持しておき、S1204で仮想対象部品1305、仮想固定部品1306の強調対象領域に相当する部位のみを抽出し、三次元形状の段階で拡大して強調させる。S1205で強調対象領域周辺(強調対象領域を規定する位置(例えば、重心)を中心にした所定範囲内)の三次元形状の拡大率を変化させて整合性を取りながら、S1206で表示出力部1113がCG画像を生成させる形式としてもよい。
このように、三次元形状として拡大・強調させることで、画像としてより矛盾がなく、直観的に位置ずれを把握しやすい合成画像を生成することができる。
<本来、可動しない自由度を使って整合性を取る方法>
S1205では、表示整合部1105が整合性を取る処理で、強調対象領域周辺の三次元形状の拡大率を変化させているが、これに限定されるものではない。強調表示情報と非強調表示情報を違和感なく合成できる構成であれば、その他の整合性を取る処理を行ってもよい。例えば、拡大率を変化させる代わりに、強調対象領域周辺の三次元形状を並進、回転させてもよい。例えば、強調対象領域である仮想対象部品1305を把持する強調対象領域周辺の仮想フィンガ1303は、仮想対象部品1305が拡大されると、そのままでは図19(a)に示すように把持位置とのずれが生じた状態となる。ここで、仮想フィンガ1303が本来移動する並進方向1901でなく、図19(b)に示すように、根元の回転方向1902を回転させて把持位置に整合性を持たせる。
このように、ロボットの強調対象領域周辺を、本来、動作しない位置もしくは回転方向に移動させることで、画像としてより矛盾がなく、直観的に位置ずれを把握しやすい合成画像を生成することができる。
<強調対象領域と非強調対象領域を明示的に分けない方法>
実施形態1〜3における表示整合部は、例えば、実施形態1のS206における整合性を取る処理で、強調表示情報と非強調表示情報の間に、整合領域を設定して整合性を取っているが、これに限定されるものではない。強調表示情報と非強調表示情報を違和感なく合成できる構成であれば、その他の整合性を取る処理を行ってもよい。例えば、強調表示情報の中心部に最大の拡大率Mを設定し、非強調表示情報に相当する領域へ近づくにつれて徐々に拡大率Mを減少させて整合性を取ってもよい。
このように、強調表示情報を中心として、非強調表示情報との間の強調度合いを連続的に変化させることで、より画像としてより矛盾がない合成画像を生成することができる。
<実施形態の効果>
実施形態1では、ロボット先端に装着されたカメラからの撮像画像を用いて、教示時に必要な位置情報を強調した上で可視化を行い、観察者に出力する。これにより、観察者はカメラによる撮像画像を用いた合成画像を観察することで、直感的かつ容易に位置ずれを確認できる。
実施形態2では、実際のロボットに代わって計算機で再現されたオフライン教示環境において、CG画像を用いて教示時に必要な位置情報を強調した上で可視化を行い、観察者に出力する。これにより、観察者はCG画像を用いた合成画像を観察することで、直感的かつ容易に位置ずれを確認できる。
実施形態3では、実施形態1の形態と同様に、出力された合成画像を観察した上で、強調された位置ずれの強調度合いに応じてロボットの動作ゲインを変化させ、実際にロボットを操作する。これにより、ロボットの教示時に、観察者は容易に位置ずれを確認することができる。更に、目標位置から遠い場合には高速に、目標位置に近づくにつれて低速にロボットを動作させることができ、より複雑で繊細な動作を短時間かつ簡単に教示できるようになる。
<定義>
計測情報取得部は、ロボット及びロボットが操作する対象の少なくとも一方を含む処理対象の位置、姿勢、速度、加速度、作用力のいずれか一つ以上の計測尺度(測定基準)による計測情報を保持するものであれば、どのようなものであってもよい。一例が、実施形態1〜3における計測情報取得部である。
また、表示情報変換部は、計測情報を、観察者が観察可能な情報に変換できるものであれば、どのようなものであってもよい。一例が、撮像画像に対して、対象部品と固定部品の位置上にクロスヘアカーソルと部品のエッジを描画する実施形態1、3における表示情報変換部である。また、その他の一例が、CG画像に対して、対象部品と固定部品の位置上にクロスヘアカーソルと部品のエッジを描画する実施形態2における表示情報変換部である。
また、表示情報強調部は、ロボット及びロボットが操作する対象の少なくとも一方を含む処理対象の一部の特徴(変位もしくは大きさ)を強調するものであれば、どのようなものであってもよい。一例が、対象部品と固定部品の位置ずれを拡大して強調する実施形態1〜3における表示情報強調部である。
また、表示整合部は、表示情報強調部によって強調された強調表示情報と、表示情報中の強調表示情報以外のその他の強調されていない非強調表示情報とを整合性を取って合成するものであれば、どのようなものであってもよい。一例が、強調表示情報と、非強調表示情報の間を、整合領域を設けて違和感のないように整合性を取って統合する実施形態1〜3における表示整合部である。
また、表示出力部は、表示整合部で合成された合成表示情報を観察者に出力するものであれば、どのようなものであってもよい。一例が、実施形態1〜3における表示出力部である。
また、情報保持部、情報変換部、表示情報強調部、及び表示整合部は、それらの機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給する形式としてもよい。
尚、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:ロボット、102:フィンガ、103:対象部品、104:固定部品、105:カメラ、106:トラッカー、107:ターゲットコイル、108:画像入力部、109:計測情報取得部、110:表示情報変換部、111:表示情報強調部、112:表示整合部、113:表示出力部、114:表示部

Claims (17)

  1. ロボットの動作を表示する表示制御装置であって、
    前記ロボット、及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する取得手段と、
    前記計測情報に基づく、観察者が観察可能な表示情報を生成する生成手段と、
    前記表示情報に基づいて、前記処理対象の一部の特徴を強調した強調表示情報を生成する強調手段と、
    前記強調表示情報と、前記表示情報中の前記強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する整合手段と、
    前記合成表示情報を表示部に出力する出力手段と
    を備えることを特徴とする表示制御装置。
  2. 前記処理対象の画像を入力する入力手段を更に備え、
    前記生成手段は、前記計測情報に基づいて、前記入力手段で入力した画像を加工することで、前記計測情報に基づく前記表示情報を生成する
    ことを特徴とする請求項1に記載の表示制御装置。
  3. 前記処理対象を撮像する撮像手段を更に備え、
    前記入力手段は、前記処理対象の画像として前記撮像手段で撮像した前記処理対象の画像を入力する
    ことを特徴とする請求項2に記載の表示制御装置。
  4. 前記処理対象のCG画像を生成するCG生成手段を更に備え、
    前記入力手段は、前記処理対象の画像として前記CG生成手段で生成した前記処理対象のCG画像を入力する
    ことを特徴とする請求項2に記載の表示制御装置。
  5. 前記強調手段は、前記処理対象の計測情報が変化する位置において、その位置を中心にした所定範囲の前記処理対象の大きさを変化させることで、前記処理対象の一部の特徴を強調する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
  6. 前記強調手段は、前記処理対象の計測情報の変位量を実際よりも大きくすることで、前記処理対象の一部の特徴を強調する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
  7. 前記強調手段は、前記処理対象の速度もしくは加速度に応じて、前記処理対象の大きさを速度もしくは加速度の発生している方向に拡大することで、前記処理対象の一部の特徴を強調する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
  8. 前記強調手段は、前記処理対象の形状の大きさを作用力に応じて変形させることで、前記処理対象の一部の特徴を強調する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
  9. 前記強調手段の強調する処理対象の部位の複数の候補が存在する場合に、強調する部位を選択する選択手段を更に備える
    ことを特徴とする請求項1乃至8のいずれか1項に記載の表示制御装置。
  10. 前記選択手段は、前記ロボットが目的とする所定のタスク内容、もしくは観察者の操作、もしくはその双方に基づいて、前記強調する部位を選択する
    ことを特徴とする請求項9に記載の表示制御装置。
  11. 前記強調手段で強調する強調度合いを動的に変更する変更手段を更に備える
    ことを特徴とする請求項1乃至10のいずれか1項に記載の表示制御装置。
  12. 前記変更手段は、前記処理対象の特徴が、所定の目標値と現在の値の差に基づいて前記強調度合いを動的に変更する
    ことを特徴とする請求項11に記載の表示制御装置。
  13. 前記変更手段は、観察者からの操作によって前記強調度合いを動的に変更する
    ことを特徴とする請求項11に記載の表示制御装置。
  14. 前記ロボットに、制御パラメータを送信してロボットの動作を制御する制御手段を更に備え、
    前記制御パラメータは、前記強調手段によって強調された特徴の強調度合いによって、ロボットの動作ゲインを変化させる
    ことを特徴とする請求項1乃至13のいずれか1項に記載の表示制御装置。
  15. 前記整合手段は、前記強調表示情報と前記非強調表示情報との間の強調度合いを連続的に変化させることで、前記強調表示情報と前記非強調表示情報とを整合する
    ことを特徴とする請求項1乃至14のいずれか1項に記載の表示制御装置。
  16. ロボットの動作を表示する表示制御方法であって、
    前記ロボット、及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する取得工程と、
    前記計測情報に基づく、観察者が観察可能な表示情報を生成する生成工程と、
    前記表示情報に基づいて、前記処理対象の一部の特徴を強調した強調表示情報を生成する強調工程と、
    前記強調表示情報と、前記表示情報中の前記強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する整合工程と、
    前記合成表示情報を表示部に出力する出力工程と
    を備えることを特徴とする表示制御方法。
  17. コンピュータを、請求項1乃至15のいずれか1項に記載の表示制御装置の各手段として機能させるための、または請求項16に記載の表示制御方法をコンピュータに実行させるためのプログラム。
JP2015005287A 2015-01-14 2015-01-14 表示制御装置及びその方法、プログラム Active JP6576042B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015005287A JP6576042B2 (ja) 2015-01-14 2015-01-14 表示制御装置及びその方法、プログラム
US14/991,220 US9884424B2 (en) 2015-01-14 2016-01-08 Display control apparatus and method for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015005287A JP6576042B2 (ja) 2015-01-14 2015-01-14 表示制御装置及びその方法、プログラム

Publications (2)

Publication Number Publication Date
JP2016129922A true JP2016129922A (ja) 2016-07-21
JP6576042B2 JP6576042B2 (ja) 2019-09-18

Family

ID=56367966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005287A Active JP6576042B2 (ja) 2015-01-14 2015-01-14 表示制御装置及びその方法、プログラム

Country Status (2)

Country Link
US (1) US9884424B2 (ja)
JP (1) JP6576042B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020188661A1 (ja) * 2019-03-15 2021-10-14 オムロン株式会社 設定支援装置、設定支援方法及びプログラム
JP2022009733A (ja) * 2017-03-30 2022-01-14 ソフト ロボティクス, インコーポレイテッド ユーザ支援ロボット制御システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018034243A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム
JP6850639B2 (ja) * 2017-03-09 2021-03-31 本田技研工業株式会社 ロボット
JP6881188B2 (ja) * 2017-09-27 2021-06-02 オムロン株式会社 位置検出装置およびプログラム
JP6693981B2 (ja) * 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
CN118159399A (zh) * 2021-10-18 2024-06-07 发那科株式会社 控制装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239989A (ja) * 1998-02-25 1999-09-07 Fujitsu Ltd ロボットシミュレーションにおけるキャリブレーション装置
JP2009195489A (ja) * 2008-02-21 2009-09-03 Olympus Medical Systems Corp マニピュレータ操作システム
US20090248036A1 (en) * 2008-03-28 2009-10-01 Intuitive Surgical, Inc. Controlling a robotic surgical tool with a display monitor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3539645B2 (ja) * 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US5878151A (en) * 1996-10-31 1999-03-02 Combustion Engineering, Inc. Moving object tracking
US7233841B2 (en) * 2002-04-19 2007-06-19 Applied Materials, Inc. Vision system
JP2004298996A (ja) * 2003-03-31 2004-10-28 Canon Inc 微小物操作装置
US8842217B2 (en) * 2008-08-04 2014-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US8600552B2 (en) * 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
US9352466B2 (en) * 2012-06-01 2016-05-31 Taiwan Semiconductor Manufacturing Co., Ltd. Robot positioning system for semiconductor tools
JP6410022B2 (ja) * 2013-09-06 2018-10-24 パナソニックIpマネジメント株式会社 マスタスレーブロボットの制御装置及び制御方法、ロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路
JP6555248B2 (ja) * 2014-02-28 2019-08-07 ソニー株式会社 医療用アーム装置、キャリブレーション方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239989A (ja) * 1998-02-25 1999-09-07 Fujitsu Ltd ロボットシミュレーションにおけるキャリブレーション装置
JP2009195489A (ja) * 2008-02-21 2009-09-03 Olympus Medical Systems Corp マニピュレータ操作システム
US20090248036A1 (en) * 2008-03-28 2009-10-01 Intuitive Surgical, Inc. Controlling a robotic surgical tool with a display monitor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022009733A (ja) * 2017-03-30 2022-01-14 ソフト ロボティクス, インコーポレイテッド ユーザ支援ロボット制御システム
JP7308553B2 (ja) 2017-03-30 2023-07-14 ソフト ロボティクス, インコーポレイテッド ユーザ支援ロボット制御システム
JPWO2020188661A1 (ja) * 2019-03-15 2021-10-14 オムロン株式会社 設定支援装置、設定支援方法及びプログラム
JP7164012B2 (ja) 2019-03-15 2022-11-01 オムロン株式会社 設定支援装置、設定支援方法及びプログラム

Also Published As

Publication number Publication date
US9884424B2 (en) 2018-02-06
JP6576042B2 (ja) 2019-09-18
US20160203799A1 (en) 2016-07-14

Similar Documents

Publication Publication Date Title
JP6576042B2 (ja) 表示制御装置及びその方法、プログラム
US11972530B2 (en) Rendering virtual objects in 3D environments
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US10076840B2 (en) Information processing apparatus, information processing method, and program
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
EP2814000B1 (en) Image processing apparatus, image processing method, and program
US20160018897A1 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP2020514909A (ja) 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP2020515954A (ja) 仮想コンテンツをワーピングすることを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US20140002348A1 (en) Measuring device and measuring method
CN104102811B (zh) 创建人体工学人体模型的姿势以及使用自然用户界面控制计算机辅助设计环境
WO2019163129A1 (ja) 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JP2013214275A (ja) 三次元位置指定方法
JP2019046055A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013008257A (ja) 画像合成プログラム
WO2011027534A1 (ja) 画像生成システム、画像生成方法、コンピュータプログラムおよびコンピュータプログラムを記録した記録媒体
KR20190048810A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
US20210263308A1 (en) Apparatus configured to display shared information on plurality of display apparatuses and method thereof
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP2019040357A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
US20240087255A1 (en) Information processing apparatus, system, control method, and non-transitory computer storage medium
US20230368483A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2021163179A (ja) 情報処理装置及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190820

R151 Written notification of patent or utility model registration

Ref document number: 6576042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151