JP2017091295A - 画像処理装置、ロボットシステム、ロボット、及び画像処理方法 - Google Patents

画像処理装置、ロボットシステム、ロボット、及び画像処理方法 Download PDF

Info

Publication number
JP2017091295A
JP2017091295A JP2015221880A JP2015221880A JP2017091295A JP 2017091295 A JP2017091295 A JP 2017091295A JP 2015221880 A JP2015221880 A JP 2015221880A JP 2015221880 A JP2015221880 A JP 2015221880A JP 2017091295 A JP2017091295 A JP 2017091295A
Authority
JP
Japan
Prior art keywords
image processing
image
information
user
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015221880A
Other languages
English (en)
Other versions
JP2017091295A5 (ja
Inventor
良至 岸
Ryoji Kishi
良至 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015221880A priority Critical patent/JP2017091295A/ja
Priority to CN201610944151.1A priority patent/CN107040709A/zh
Priority to EP16198147.7A priority patent/EP3171329A1/en
Priority to US15/348,236 priority patent/US10306149B2/en
Publication of JP2017091295A publication Critical patent/JP2017091295A/ja
Publication of JP2017091295A5 publication Critical patent/JP2017091295A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Manipulator (AREA)

Abstract

【課題】ユーザーが所望する画像処理を容易に行うことができる画像処理装置を提供する
こと。
【解決手段】画像に含まれる物体の検査又は計測を行う画像処理装置であって、ユーザー
からの操作を受け付け、受け付けた前記操作に基づいて、複数の第1画像処理により構成
される第2画像処理を示す情報である第2画像処理情報を選択し、前記第2画像処理情報
が示す前記第2画像処理を構成する複数の前記第1画像処理の編集を行う、画像処理装置

【選択図】図3

Description

この発明は、画像処理装置、ロボットシステム、ロボット、及び画像処理方法に関する
撮像画像に含まれる物体の検査及び計測を行う画像処理の研究や開発が行われている。
これに関し、画像処理コマンドを順次登録して画像処理手順を作成する際、直前に登録
された画像処理コマンドの種類に応じて、次の手順として登録すべき画像処理コマンドの
候補を表示する画像処理コマンドの選択方法が知られている(特許文献1参照)。
特開平07−28970号公報
しかしながら、この選択方法では、直前に登録した画像処理コマンドに応じて当該候補
が表示されるため、画像処理手順の作成を補助することができても、所望の検査及び測定
を行うために必要な画像処理コマンドをユーザー自身が選択するしかなかった。そのため
、当該選択方法を有する画像処理装置では、画像処理に関する専門的な知識を有するユー
ザーでなければ、所望の画像処理を行うことが困難な場合があった。
上記課題の少なくとも一つを解決するために本発明の一態様は、画像に含まれる物体の
検査又は計測を行う画像処理装置であって、ユーザーからの操作を受け付け、受け付けた
前記操作に基づいて、複数の第1画像処理により構成される第2画像処理を示す情報であ
る第2画像処理情報を選択し、前記第2画像処理情報が示す前記第2画像処理を構成する
複数の前記第1画像処理の編集を行う、画像処理装置である。
この構成により、画像処理装置は、ユーザーからの操作を受け付け、受け付けた操作に
基づいて、複数の第1画像処理により構成される第2画像処理を示す情報である第2画像
処理情報を選択し、第2画像処理情報が示す第2画像処理を構成する複数の第1画像処理
の編集を行う。これにより、画像処理装置では、ユーザーが所望する画像処理を容易に行
うことができる。
また、本発明の他の態様は、画像処理装置において、複数の前記第2画像処理情報を表
示部に表示させ、表示させた当該複数の前記第2画像処理情報から前記第2画像処理情報
を選択可能である、構成が用いられてもよい。
この構成により、画像処理装置は、複数の第2画像処理情報を表示部に表示させ、表示
させた当該複数の第2画像処理情報から第2画像処理情報を選択可能である。これにより
、画像処理装置は、選択された第2画像処理情報に基づいて、ユーザーが所望する画像処
理を容易に行うことができる。
また、本発明の他の態様は、画像処理装置において、ユーザーから受け付けた操作に基
づいて、前記第2画像処理情報が示す前記第2画像処理を構成する前記第1画像処理を示
す第1画像処理情報の追加又は削除を前記編集として行う、構成が用いられてもよい。
この構成により、画像処理装置は、ユーザーから受け付けた操作に基づいて、第2画像
処理情報が示す第2画像処理を構成する第1画像処理を示す第1画像処理情報の追加又は
削除を、第2画像処理情報が示す第2画像処理を構成する複数の第1画像処理の編集とし
て行う。これにより、画像処理装置は、第2画像処理をユーザーが所望する画像処理に変
更することができる。
また、本発明の他の態様は、画像処理装置において、前記第1画像処理情報が示す前記
第1画像処理の実行において用いられるパラメーターをユーザーが入力可能である、構成
が用いられてもよい。
この構成により、画像処理装置は、第1画像処理情報が示す第1画像処理の実行におい
て用いられるパラメーターをユーザーが入力可能である。これにより、画像処理装置は、
入力したパラメーターに基づいて、ユーザーが所望する画像処理を容易に行うことができ
る。
また、本発明の他の態様は、画像処理装置において、ユーザーから受け付けた操作に基
づいて前記第1画像処理情報を2以上選択し、選択した前記第1画像処理情報に基づいて
前記第2画像処理情報を生成する、構成が用いられてもよい。
この構成により、画像処理装置は、ユーザーから受け付けた操作に基づいて第1画像処
理情報を2以上選択し、選択した第1画像処理情報に基づいて第2画像処理情報を生成す
る。これにより、画像処理装置は、生成した第2画像処理情報に基づいて、ユーザーが所
望する画像処理を容易に行うことができる。
また、本発明の他の態様は、上記のいずれかに記載の画像処理装置と、画像処理装置に
よる画像処理の結果に基づいて所定の作業を行うロボットと、を備えるロボットシステム
である。
この構成により、ロボットシステムは、ユーザーからの操作を受け付け、受け付けた操
作に基づいて、複数の第1画像処理により構成される第2画像処理を示す情報である第2
画像処理情報を選択し、第2画像処理情報が示す前記第2画像処理を構成する複数の第1
画像処理の編集を行う。これにより、ロボットシステムでは、ユーザーが所望する画像処
理を容易に行うことができる。
また、本発明の他の態様は、上記のいずれかに記載の画像処理装置を備える、ロボット
である。
この構成により、ロボットは、ユーザーからの操作を受け付け、受け付けた操作に基づ
いて、複数の第1画像処理により構成される第2画像処理を示す情報である第2画像処理
情報を選択し、第2画像処理情報が示す前記第2画像処理を構成する複数の第1画像処理
の編集を行う。これにより、ロボットでは、ユーザーが所望する画像処理を容易に行うこ
とができる。
また、本発明の他の態様は、画像に含まれる物体の検査又は計測を行う画像処理方法で
あって、ユーザーからの操作を受け付ける操作受付ステップと、前記操作受付ステップに
より受け付けた第1の前記操作に基づいて、複数の第1画像処理により構成される第2画
像処理を示す情報である第2画像処理情報を選択する選択ステップと、前記操作受付ステ
ップにより受け付けた第2の前記操作に基づいて、前記第2画像処理情報が示す前記第2
画像処理を構成する複数の前記第1画像処理の編集を行う編集ステップと、を有する画像
処理方法である。
この構成により、画像処理方法は、ユーザーからの操作を受け付け、受け付けた操作に
基づいて、複数の第1画像処理により構成される第2画像処理を示す情報である第2画像
処理情報を選択し、第2画像処理情報が示す前記第2画像処理を構成する複数の第1画像
処理の編集を行う。これにより、画像処理方法では、ユーザーが所望する画像処理を容易
に行うことができる。
以上により、画像処理装置、ロボットシステム、ロボット、及び画像処理方法は、ユー
ザーからの操作を受け付け、受け付けた操作に基づいて、複数の第1画像処理により構成
される第2画像処理を示す情報である第2画像処理情報を選択し、第2画像処理情報が示
す前記第2画像処理を構成する複数の第1画像処理の編集を行う。これにより、画像処理
装置、ロボットシステム、ロボット、及び画像処理方法では、ユーザーが所望する画像処
理を容易に行うことができる。
本実施形態に係る画像処理システム1の一例を示す構成図である。 画像処理装置20のハードウェア構成の一例を示す図である。 画像処理装置20の機能構成の一例を示す図である。 メイン画面の一例を示す図である。 メイン画面G1においてユーザーにより事例を選択され、選択された事例を構成する複数のツールのそれぞれが実行される際に、制御部28が行う処理の流れの一例を示すフローチャートである。 選択方法選択画面の一例を示す図である。 事例選択画面の一例を示す図である。 事例を構成するツールを示すツール情報が表示されたメイン画面の一例を示す図である。 編集画面が表示されたメイン画面の一例を示す図である。 フィルター処理選択画面の一例を示す図である。 実施形態の変形例に係るロボット50の一例を示す構成図である。 ロボット制御装置60の機能構成の一例を示す図である。
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<画像処理システムの構成>
まず、画像処理システム1の構成について説明する。図1は、本実施形態に係る画像処
理システム1の一例を示す構成図である。画像処理システム1は、撮像部10と、画像処
理装置20を備える。
撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Ch
arge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)
等を備えたカメラである。この一例において、撮像部10は、対象物Oを含む範囲を撮像
可能な位置に設置される。
対象物Oは、例えば、製品に組み付けるプレート、歯車、ネジ、ボルト等の産業用の部
品や部材である。図1では、図の簡略化のため、対象物Oを直方体形状の物体として表し
ている。なお、対象物Oは、産業用の部品や部材に代えて、日用品や生体等の他の物体で
あってもよい。また、対象物Oの形状は、直方体形状に代えて、他の形状であってもよい
また、対象物Oは、この一例において、作業台TBの上面に載置されている。作業台T
Bは、例えば、テーブルである。なお、作業台TBは、テーブルに代えて、床面や棚等の
他の物体であってもよい。また、図1に示した例では、作業台TBの上面には、対象物O
が1個のみ載置されているが、これに代えて、2個以上の対象物Oが載置される構成であ
ってもよい。
また、撮像部10は、ケーブルによって画像処理装置20と通信可能に接続されている
。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格に
よって行われる。なお、撮像部10は、Wi−Fi(登録商標)等の通信規格により行わ
れる無線通信によって画像処理装置20と接続される構成であってもよい。
画像処理装置20は、画像に含まれる物体の検査又は計測を行う。この計測には、当該
物体の三次元座標系における位置及び姿勢を算出することも含まれている。当該三次元座
標系は、例えば、ワールド座標系やロボット座標系、他の局所座標系等である。画像処理
装置20は、例えば、ワークステーションやデスクトップPC(Personal Computer)、
ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの
電子書籍リーダー、PDA(Personal Digital Assistant)等である。
<画像処理装置が行う処理の概要>
以下、画像処理装置20が行う処理の概要について説明する。
この一例において、画像処理装置20は、対象物Oを含む範囲を撮像範囲として撮像部
10に撮像させる。そして、画像処理装置20は、撮像部10が撮像した撮像画像を取得
する。画像処理装置20は、取得した撮像画像に基づいて、当該撮像画像に含まれる対象
物Oの検査又は計測を行う。
具体的には、画像処理装置20は、ユーザーからの操作を受け付け、受け付けた操作に
基づいて、複数の第1画像処理を実行し、ユーザーが所望する画像処理を行う。複数の第
1画像処理の一部又は全部は、画像に対して行う処理が互いに異なっていてもよく、当該
処理が互いに同じであってもよい。
複数の第1画像処理を実行する際、画像処理装置20は、ユーザーからの操作を受け付
け、受け付けた操作に基づいて、複数の第1画像処理により構成される第2画像処理を示
す情報である第2画像処理情報を選択し、選択した第2画像処理情報が示す第2画像処理
を構成する複数の第1画像処理を実行する。また、画像処理装置20は、ユーザーからの
操作を受け付け、受け付けた操作に基づいて、第2画像処理情報が示す第2画像処理を構
成する複数の第1画像処理の編集を行う。これにより、画像処理装置20は、ユーザーが
所望する画像処理を容易に行うことができる。
例えば、過去に行われた画像処理において実行された複数の第1画像処理により第2画
像処理が構成されている場合、ユーザーは、当該第2画像処理を示す第2画像処理情報を
選択することにより、過去に行われた画像処理と同様の処理を行う画像処理を実行するこ
とができる。また、第2画像処理情報が当該過去に行われた画像処理を表す画像や文字列
等であった場合、ユーザーは、当該画像や当該文字列等に基づいて、所望の画像処理を示
す第2画像処理情報を複数の第2画像処理情報の中から選択することができる。これによ
り、画像処理装置20は、ユーザーが所望する画像処理を容易に行うことができる。
以下では、第1画像処理の一例として、第1画像処理をユーザーが所望の画像処理を行
うために用いる道具と見立て、第1画像処理をツールと称し、第1画像処理情報をツール
情報と称して説明する。この一例において、ツール情報は、ツールを表す文字や画像を含
むボタンである。ボタンは、画像処理装置20が表示する各種の画面において選択操作(
押下、クリック、タップ)が可能なアイコンである。
また、以下では、第2画像処理の一例として、第2画像処理を複数のツールによって行
う画像処理の雛形(テンプレート)と見立て、第2画像処理を事例と称し、第2画像処理
情報を事例情報と称して説明する。この一例において、事例情報は、事例を表す文字や画
像を含むボタンである。
<ツールの具体例>
この一例において、ツールには、以下に示した1A)〜7A)の7つの画像処理が含ま
れる。
1A)幾何探索処理(幾何サーチ)
2A)直線検出処理
3A)直線間距離算出処理
4A)色検査処理
5A)2点間距離算出処理
6A)2直線交点検出処理
7A)事前処理(前処理)
8A)簡易演算処理
なお、ツールには、上記の1A)〜8A)の一部又は全部に代えて、他の画像処理が含
まれる構成であってもよく、上記の1A)〜8A)の全部に加えて、他の画像処理が含ま
れる構成であってもよい。
幾何探索処理は、ユーザーにより指定された物体の輪郭の幾何学的な特徴を画像の中か
ら検出する処理である。画像処理装置20は、幾何探索処理において、ユーザーにより指
定された形状を、ユーザーから予め入力されたパラメーターに基づいて特定する。この一
例において、パラメーターは、画像処理装置20が表示する画面においてツール毎にユー
ザーから入力される情報である。また、パラメーターは、当該画面においてツール毎にユ
ーザーから入力された後、各ツールに対応付けられる。例えば、画像処理装置20が表示
する画面において幾何探索処理に対してユーザーから入力されたパラメーターは、幾何探
索処理に対応付けられる。
直線検出処理は、ユーザーに指定された領域内に含まれる直線を画像の中から検出する
処理である。画像処理装置20は、直線検出処理において、検出する直線を、ユーザーか
ら予め入力されたパラメーターに基づいて特定する。
直線間距離算出処理は、ユーザーから予め入力されたパラメータに基づいて,直線検出
処理を2箇所で行い、検出された2つの直線の間の距離を算出する処理である。画像処理
装置20は、直線間距離算出処理において、2つの直線のそれぞれを、ユーザーから予め
入力されたパラメーターに基づいて特定する。
色検査処理は、幾何探索処理によって検出された物体の表面や、幾何探索処理によって
検出された輪郭の内部等の色が、ユーザーにより指定された色であるか否かを判定する処
理である。画像処理装置20は、色検査処理において、ユーザーにより指定された色を、
ユーザーから予め入力されたパラメーターに基づいて特定する。
2点間距離算出処理は、ユーザーにより指定された2点の間の距離を算出する処理であ
る。画像処理装置20は、2点間距離算出処理において、ユーザーにより指定された2点
のそれぞれを、ユーザーから予め入力されたパラメーターに基づいて特定する。当該2点
は、例えば、幾何探索処理によって検出された物体の重心を示す点と、幾何探索処理によ
って検出された直線の2つの端点のうちの一方の端点等である。
2直線交点検出処理は、ユーザーにより指定された2つの直線の交点の位置を検出する
処理である。画像処理装置20は、2直線交点検出処理において、ユーザーにより指定さ
れた2つの直線を、ユーザーから予め入力されたパラメーターに基づいて特定する。
事前処理は、上記の1A)〜6A)のそれぞれの処理を行う前に、ユーザーにより指定
されたフィルター処理を画像に対して行う処理である。画像処理装置20は、事前処理に
おいて、ユーザーにより指定されたフィルター処理を、ユーザーから予め入力されたパラ
メーターに基づいて特定する。ユーザーにより指定されるフィルター処理は、例えば、画
像の二値化フィルター処理、画像の平滑化フィルター処理、鮮鋭化フィルター処理、メデ
ィアンフィルター処理等を含む。
簡易演算処理は、ユーザーにより指定された演算(例えば、四則演算や初等関数を用い
た演算)を行う処理である。画像処理装置20は、簡易演算処理において、ユーザーによ
り指定された演算を、ユーザーから予め入力されたパラメーターに基づいて特定する。
なお、上記で説明した各パラメーターには、他のツールが実行された結果が入力される
場合がある。具体的には、複数のツールが1つずつ順番に実行される場合、あるツールに
対応付けられたパラメーターのうちの1つに、当該ツールよりも前に実行されたツールの
実行結果として出力された値が入力されることがある。例えば、2つの幾何探索処理と、
2点間距離算出処理との組み合わせによって、2つの物体の距離を算出する処理を行う場
合、2点間距離算出処理によって算出する2点間の距離は、2つの幾何探索処理のそれぞ
れによって検出した2点間の距離である。すなわち、この場合、2つの幾何探索処理のそ
れぞれによって検出した2点それぞれの位置が2点間距離算出処理に対応付けられるパラ
メーターとして入力される。このように、画像処理装置20では、あるツールのパラメー
ターに、他のツールの処理結果や、ツール同士の依存関係が反映される場合がある。以下
では、説明の便宜上、あるツールのパラメーターに、他のツールの処理結果や、ツール同
士の依存関係が反映されることを、パラメーターの依存関係性と称して説明する。
<事例の具体例>
この一例において、事例には、以下に示した1B)〜4B)の4つの画像処理が含まれ
る。
1B)隙間計測処理
2B)物体色検査処理
3B)2物体間距離算出処理
4B)四角形中心検出処理
なお、事例には、上記の1B)〜4B)の一部又は全部に代えて、他の画像処理が含ま
れる構成であってもよく、上記の1B)〜4B)の全部に加えて、他の画像処理が含まれ
る構成であってもよい。
前述したように、事例は、複数のツールによって構成される。隙間計測処理は、ツール
のうちの幾何探索処理と、事前処理と、2つの直線検出処理と、直線間距離算出処理との
組み合わせによって構成される。具体的には、隙間計測処理では、画像に対して事前処理
が行われ、事前処理が行われた画像から幾何探索処理によって、計測対象の位置が検出さ
れ、検出された位置に応じて直線間検出処理の2つの直線探索領域を補正し、事前処理が
行われた画像から2つの直線が検出され、検出された2つの直線の間の距離が直線間距離
算出処理によって算出される。これにより、隙間計測処理では、画像に含まれる2つの物
体間の隙間が算出(計測)される。
物体色検査処理は、ツールのうちの幾何探索処理と、色検査処理との組み合わせによっ
て構成される。具体的には、物体色検査処理では、画像から幾何探索処理によってユーザ
ーにより指定された物体が検出され、検出された当該物体の色が色検査処理によってユー
ザーにより指定された色であるか否か判定される。これにより、物体色検査処理では、画
像に含まれる物体の色がユーザーにより指定された色であるか否か判定される。
2物体間距離算出処理は、ツールのうちの幾何探索処理と、2点間距離算出処理との組
み合わせによって構成される。具体的には、2物体間距離算出処理では、画像から1回目
の幾何探索処理によってユーザーにより指定された1つ目の物体である第1物体の重心を
示す点が検出され、当該画像から2回目の幾何探索処理によってユーザーにより指定され
た2つ目の物体である第2物体の重心を示す点が検出され、2点間距離算出処理によって
第1物体の重心を示す点と第2物体の重心を示す点との間の距離が算出される。これによ
り、2物体間距離算出処理では、画像に含まれる第1物体と第2物体との間の距離が算出
される。
四角形中心検出処理は、ツールのうちの2直線交点検出処理と、簡易演算処理との組み
合わせによって構成される。具体的には、四角形中心検出処理では、画像から1回目の2
直線交点検出処理により第1直線と第2直線との交点が検出され、当該画像から2回目の
2直線交点検出処理により第1直線と第3直線との交点が検出され、当該画像から3回目
の2直線交点検出処理により第2直線と第4直線との交点が検出され、当該画像から4回
目の2直線交点検出処理により第3直線と第4直線との交点が検出される。そして、四角
形中心検出処理では、検出された4つの交点をそれぞれ頂点として有する四角形の中心(
例えば、図心)が簡易演算処理によって算出される。
なお、画像処理装置20では、これらの事例の一部又は全部において、前述したパラメ
ーターの依存関係性をユーザーが入力することなく予め登録されている構成であってもよ
く、予めユーザーにより入力されている構成であってもよく、予め登録されておらず、後
からユーザーが入力する構成であってもよい。
<画像処理装置のハードウェア構成>
以下、図2を参照し、画像処理装置20のハードウェア構成について説明する。図2は
、画像処理装置20のハードウェア構成の一例を示す図である。画像処理装置20は、例
えば、CPU(Central Processing Unit)21と、記憶部22と、入力受付部23と
、通信部24と、表示部25を備える。また、画像処理装置20は、通信部24を介して
撮像部10と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接
続されている。
CPU21は、記憶部22に格納された各種プログラムを実行する。
記憶部22は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive
)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、R
OM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶
部22は、画像処理装置20に内蔵されるものに代えて、USB等のデジタル入出力ポー
ト等によって接続された外付け型の記憶装置であってもよい。記憶部22は、画像処理装
置20が処理する各種情報や画像、プログラム(前述のツールを実行するプログラムを含
む)を格納する。
入力受付部23は、例えば、キーボードやマウス、タッチパッド、その他の入力装置で
ある。なお、入力受付部23は、タッチパネルとして表示部25と一体に構成されてもよ
い。
通信部24は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)
ポート等を含んで構成される。
表示部25は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLumin
escence)ディスプレイパネルである。
<画像処理装置の機能構成>
以下、図3を参照し、画像処理装置20の機能構成について説明する。図3は、画像処
理装置20の機能構成の一例を示す図である。画像処理装置20は、記憶部22と、入力
受付部23と、表示部25と、画像取得部27と、制御部28を備える。
画像取得部27は、撮像部10が撮像した撮像画像を、撮像部10から取得する。
制御部28は、画像処理装置20の全体を制御する。制御部28は、撮像制御部31と
、表示制御部33と、第2画像処理情報生成部37と、第2画像処理情報編集部39と、
画像処理実行部43を備える。制御部28が備えるこれらの機能部は、例えば、CPU2
1が、記憶部22に記憶された各種プログラムを実行することにより実現される。また、
これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASI
C(Application Specific Integrated Circuit)等のハードウェア機能部であっても
よい。
撮像制御部31は、対象物Oを含む撮像範囲を撮像部10に撮像させる。
表示制御部33は、入力受付部23により受け付けられたユーザーからの操作に基づい
て、GUI(Graphical User Interface)を含む各種の画面を表示部25に表示させる
第2画像処理情報生成部37は、表示制御部33が表示部25に表示させた画面におい
て入力受付部23を用いてユーザーにより選択された1以上のツール情報に基づいて、当
該ツール情報のそれぞれが示すツールにより構成される事例を示す事例情報を生成する。
第2画像処理情報生成部37は、生成した事例情報を記憶部22に記憶する。
第2画像処理情報編集部39は、表示制御部33が表示部25に表示させた画面におい
て入力受付部23により受け付けられたユーザーからの操作に基づいて、記憶部22に記
憶された事例情報を編集する。
画像処理実行部43は、表示制御部33が表示部25に表示させた画面において入力受
付部23を用いてユーザーにより選択されたツール情報が示すツールを実行する。また、
画像処理実行部43は、表示制御部33が表示部25に表示させた画面において入力受付
部23を用いてユーザーにより選択された事例情報が示す事例を構成する複数のツールの
それぞれを実行する。これらの際、画像処理実行部43は、表示制御部33が表示部25
に表示させた画面において入力受付部23を用いてユーザーにより入力されたパラメータ
ーに基づいてツールを実行する。
<制御部が行う処理の具体例について>
以下、図4〜図8を参照し、制御部28が行う処理の具体例について説明する。なお、
ここでは、制御部28が行う処理の一例として、表示制御部33が表示部25に表示させ
たメイン画面においてユーザーが事例情報を選択し、選択した事例情報が示す事例を構成
する複数のツールのそれぞれを実行する際に制御部28が行う処理について説明する。
この一例におけるメイン画面は、ユーザーが事例の生成、編集、削除、実行等を行う画
面である。事例の生成は、複数のツールを選択し、選択した当該ツールと対応付けられた
事例情報を生成することである。事例の編集には、事例を構成する複数のツールに対する
新たなツールの追加や、事例を構成する複数のツールの一部の削除が含まれる。事例の削
除は、事例を構成する複数のツールの全部の削除である。事例の実行は、事例を構成する
複数のツールの実行である。また、当該メイン画面は、画像処理装置20において実行さ
れた画像処理の結果が表示される画面である。なお、当該メイン画面は、これらに加えて
、ユーザーが他の処理を実行する画面であってもよく、他の情報が表示される画面であっ
てもよい。
ここで、図4を参照し、メイン画面について説明する。図4は、メイン画面の一例を示
す図である。図4に示したメイン画面の一例であるメイン画面G1は、領域G11と、領
域G12と、ボタンB11〜ボタンB18を含む複数のボタンと、複数のプルダウンメニ
ューを有する。なお、メイン画面G1は、ボタンB11〜ボタンB18を除く複数のボタ
ンと、複数のプルダウンメニューとの一部又は全部に代えて、他の情報や画像、文字列、
GUI等を有する構成であってもよく、当該全部に加えて、他の情報や画像、文字列、G
UI等を有する構成であってもよい。
領域G11には、ユーザーが選択したツール情報が表示される。例えば、表示制御部3
3は、ユーザーによりツール情報が選択された場合、選択されたツール情報を領域G11
に表示する。また、表示制御部33は、ユーザーにより事例情報が選択された場合、選択
された事例情報が示す事例を構成する複数のツールのそれぞれを示すツール情報を領域G
11に表示する。
領域G12には、ユーザーが画像処理を行う対象となる画像であり、当該画像に対して
各種の画像処理を行う前の画像である処理前画像や、当該画像に対して各種の画像処理を
行った後の画像である処理後画像が表示される。ユーザーが画像処理を行う対象となる画
像は、画像取得部27が撮像部10から取得した撮像画像であってもよく、予め記憶部2
2に記憶された画像であってもよい。例えば、表示制御部33は、ユーザーにより画像処
理を行う対象となる画像として当該撮像画像が選択された場合、選択された当該撮像画像
を領域G12に表示する。
ボタンB11は、ユーザーが所望の画像処理を行うために用いるツールの選択方法を選
択する選択方法選択画面を表示するボタンである。表示制御部33は、ユーザーによりボ
タンB11に選択操作(押下、クリック、タップ)が行われた場合、メイン画面G1に重
ねて選択方法選択画面を表示する。
ボタンB12は、領域G11に表示されたツール情報のうちユーザーが選択したツール
情報が示すツールを編集する編集画面を表示するボタンである。ツールの編集には、ツー
ルに対応付けるパラメーターの入力、追加、削除等が含まれる。また、ツールが事前処理
である場合、ツールの編集には、これらに加えて、事前処理において実行するフィルター
処理の選択、追加、削除等が含まれる。表示制御部33は、ボタンB12が押下された場
合、メイン画面G1の領域G11に当該編集画面を表示する。
ボタンB13は、領域G11に表示されたツール情報のうちのユーザーにより選択され
たツール情報が示すツールを、画像処理を行う対象となる画像に対して実行するボタンで
ある。画像処理実行部43は、ボタンB13が押下された場合、領域G11に表示された
ツール情報のうちユーザーにより選択されたツール情報が示すツールを当該画像に対して
実行する。
ボタンB14は、画像処理を行う対象となる画像に対して、領域G11に表示された1
以上のツール情報のそれぞれが示すツールを実行するボタンである。画像処理実行部43
は、ボタンB14が押下された場合、領域G11に表示されたツール情報を上から順に1
つずつ選択し、選択したツール情報が示すツールを、画像処理を行う対象となる画像に対
して順に実行する。
ボタンB15は、処理後画像に代えて、処理前画像を領域G12に表示するボタンであ
る。表示制御部33は、領域G12に処理後画像が表示されている状態においてボタンB
15が押下された場合、領域G12に処理前画像を表示する。
ボタンB16は、処理前画像に代えて、処理後画像を領域G12に表示するボタンであ
る。表示制御部33は、領域G12に処理前画像が表示されている状態においてボタンB
16が押下された場合、領域G12に処理後画像を表示する。
ボタンB17は、領域G12に表示させる画像を記憶部22から読み出す画像選択画面
を表示させるボタンである。表示制御部33は、ボタンB17が押下された場合、メイン
画面G1に重ねて当該画像選択画面を表示する。
ボタンB18は、領域G12に表示された画像を記憶部22に記憶(保存)する画像記
憶画面を表示するボタンである。表示制御部33は、ボタンB18が押下された場合、メ
イン画面G1に重ねて当該画像記憶画面を表示する。
このようなメイン画面G1においてユーザーにより事例情報が選択され、選択された事
例情報が示す事例を構成する複数のツールのそれぞれが実行される際に、制御部28は、
例えば、図5に示したフローチャートの各処理を行う。図5は、メイン画面G1において
ユーザーにより事例が選択され、選択された事例を構成する複数のツールのそれぞれが実
行される際に、制御部28が行う処理の流れの一例を示すフローチャートである。なお、
図5に示したフローチャートのステップS100の処理は、画像取得部27が撮像部10
から撮像画像を取得した後の処理であり、表示制御部33が表示部25にメイン画面G1
を表示させた後の処理である。
表示制御部33は、メイン画面G1において入力受付部23によりユーザーからボタン
B11を押下する操作を受け付ける(ステップS100)。次に、表示制御部33は、ス
テップS100において受け付けた操作に基づいて、メイン画面G1に重ねて選択方法選
択画面を表示する(ステップS110)。
ここで、図6を参照し、選択方法選択画面について説明する。図6は、選択方法選択画
面の一例を示す図である。図6に示した選択方法選択画面の一例である選択方法選択画面
G2は、この一例において、メイン画面G1の領域G12の上に重ねて表示されている。
選択方法選択画面G2は、ボタンB21と、ボタンB22と、ボタンB23と、ボタンB
24を有する。なお、選択方法選択画面G2は、ボタンB22と、ボタンB23と、ボタ
ンB24との一部又は全部に代えて、他の情報や画像、文字列、GUI等を有する構成で
あってもよく、ボタンB22と、ボタンB23と、ボタンB24との全部に加えて、他の
情報や画像、文字列、GUI等を有する構成であってもよい。
ボタンB21は、事例を選択する事例選択画面を表示するボタンである。表示制御部3
3は、ボタンB21が押下された場合、選択方法選択画面G2に重ねて事例選択画面を表
示する。
ボタンB22は、カテゴリー毎に分類されたツールのリスト(一覧)からツールを選択
する第1ツール選択画面を表示するボタンである。表示制御部33は、ボタンB22が押
下された場合、選択方法選択画面G2に重ねて第1ツール選択画面を表示する。
ボタンB23は、機能毎に分類されたツールのリスト(一覧)からツールを選択する第
2ツール選択画面を表示するボタンである。表示制御部33は、ボタンB23が押下され
た場合、選択方法選択画面G2に重ねて第2ツール選択画面を表示する。
ボタンB24は、選択方法選択画面G2を削除する(閉じる)ボタン(キャンセルボタ
ン)である。表示制御部33は、ボタンB24が押下された場合、選択方法選択画面G2
を削除する。
ステップS110において選択方法選択画面G2が表示された後、表示制御部33は、
選択方法選択画面G2において入力受付部23によりユーザーからボタンB21を押下す
る操作を受け付ける(ステップS120)。次に、表示制御部33は、選択方法選択画面
G2に重ねて事例選択画面を表示する(ステップS130)。
ここで、図7を参照し、事例選択画面について説明する。図7は、事例選択画面の一例
を示す図である。図7に示した事例選択画面の一例である事例選択画面G3は、この一例
において、選択方法選択画面G2の上に重ねて表示されている。事例選択画面G3は、ボ
タンB31と、ボタンB32と、ボタンB33と、ボタンB34と、ボタンB35と、ボ
タンB36を有する。なお、事例選択画面G3は、ボタンB31と、ボタンB32と、ボ
タンB33と、ボタンB34と、ボタンB35と、ボタンB36との全部に加えて、他の
情報や画像、文字列、GUI等を有する構成であってもよい。
ボタンB31は、複数の事例のうちの隙間計測処理を示すツール情報である。表示制御
部33は、ボタンB31が押下された場合、選択方法選択画面G2及び事例選択画面G3
を削除し(閉じ)、押下されたボタンB31が示す事例を構成する複数のツールを示すツ
ール情報を、メイン画面G1の領域G11に表示する。
ボタンB32は、複数の事例のうちの物体色検査処理を示すツール情報である。表示制
御部33は、ボタンB32が押下された場合、選択方法選択画面G2及び事例選択画面G
3を削除し(閉じ)、押下されたボタンB32が示す事例を構成する複数のツールを示す
ツール情報を、メイン画面G1の領域G11に表示する。
ボタンB33は、複数の事例のうちの2物体間距離算出処理を示すツール情報である。
表示制御部33は、ボタンB33が押下された場合、選択方法選択画面G2及び事例選択
画面G3を削除し(閉じ)、押下されたボタンB33が示す事例を構成する複数のツール
を示すツール情報を、メイン画面G1の領域G11に表示する。
ボタンB34は、複数の事例のうちの四角形中心検出処理を示すツールである。表示制
御部33は、ボタンB34が押下された場合、選択方法選択画面G2及び事例選択画面G
3を削除し(閉じ)、押下されたボタンB34が示す事例を構成する複数のツールを示す
ツール情報を、メイン画面G1の領域G11に表示する。
ボタンB35は、事例選択画面G3に新たな事例情報を追加する事例情報追加画面を表
示するボタンである。表示制御部33は、ボタンB35が押下された場合、事例情報追加
画面を、事例選択画面G3に重ねて表示する。
ボタンB36は、事例選択画面G3を削除する(閉じる)ボタン(キャンセルボタン)
である。表示制御部33は、ボタンB36が押下された場合、事例選択画面G3を削除す
る。
ステップS130において事例選択画面G3が表示された後、表示制御部33は、事例
選択画面G3を介して入力受付部23によりユーザーからボタンB31を押下する操作を
受け付ける(ステップS140)。次に、表示制御部33は、選択方法選択画面G2及び
事例選択画面G3を削除し(閉じ)、ステップS140において押下されたボタンB31
が示す事例である隙間計測処理を構成する複数のツールのそれぞれを示すツール情報を、
メイン画面G1の領域G11に表示する(ステップS150)。
ここで、図8を参照し、事例を構成するツールを示すツール情報が表示されたメイン画
面G1について説明する。図8は、事例を構成するツールを示すツール情報が表示された
メイン画面の一例を示す図である。図8に示したように、表示制御部33は、事例選択画
面G3においてボタンB31が押下された場合、ステップS140において選択されたボ
タンB31が示す事例である隙間計測処理を構成する5つのツールである事前処理を示す
ツール情報T11と、幾何探索処理を示すツール情報T12と、直線検出処理を示すツー
ル情報T13と、直線検出処理を示すツール情報T14と、直線間距離算出処理を示すツ
ール情報T15とのそれぞれを領域G11に表示する。
図8に示したメイン画面G1が表示された後、ユーザーは、領域G11に表示された各
ツール情報に対応付けるパラメーターをそれぞれ入力し、ボタンB14を押下することに
より、ユーザーが所望する2本の直線の間の距離を容易に算出することができる。図8に
示したメイン画面G1の状態において、ボタンB14が押下された場合、画像処理実行部
43は、画像処理を行う対象となる画像に対して、領域G11に表示された3つのツール
情報を、上から順に1つずつ実行する。具体的には、画像処理実行部43は、画像処理を
行う対象となる画像に対して、ツール情報T11が示す事前処理、ツール情報T12が示
す幾何探索処理、ツール情報T13が示す直線検出処理、ツール情報T14が示す直線検
出処理、ツール情報T15が示す直線間距離算出処理の順にこれらのツールを実行する。
この一例において、画像処理を行う対象となる画像は、領域G12に表示された画像P
Pである。画像PPには、物体PP1と物体PP2とが撮像されている。なお、この一例
において、ユーザーが選択した事例である隙間計測処理では、画像PPに含まれる物体P
P1及び物体PP2からツール情報T12が示す幾何探索処理において検出された幾何学
的な特徴が、ツール情報T13及びツール情報T14のそれぞれが示す直線検出処理のそ
れぞれに対応付けられるパラメーターとして入力される。また、隙間計測処理では、ツー
ル情報T13及びツール情報T14のそれぞれが示す直線検出処理のそれぞれによって画
像PPから検出される2本の直線が、ツール情報T15が示す直線間距離算出処理に対応
付けられるパラメーターとして入力される。
なお、ここでは、一例として、ツール情報T13が示す直線検出処理によって画像PP
に含まれる物体PP1の直線部分である直線SL1が検出され、ツール情報T14が示す
直線検出処理によって画像PPに含まれる物体PP2の直線部分である直線SL2が検出
される場合について説明する。
ステップS150においてメイン画面G1の領域G11にツール情報が表示された後、
画像処理実行部43は、メイン画面G1を介して入力受付部23によりユーザーからボタ
ンB14を押下する操作を受け付ける(ステップS160)。次に、画像処理実行部43
は、画像処理を行う対象となる画像(この一例において、画像PP)に対して、ツール情
報T11が示す事前処理、ツール情報T12が示す幾何探索処理、ツール情報T13が示
す直線検出処理、ツール情報T14が示す直線検出処理、ツール情報T15が示す直線間
距離算出処理の順にこれらのツールを実行する(ステップS170)。そして、これらの
ツールが実行された結果、直線SL1と直線SL2との間の距離である距離LLが算出さ
れる。次に、表示制御部33は、ステップS170においてツールが実行された結果(す
なわち、距離LL)を表示する領域G13をメイン画面G1に表示する。この一例におい
て、領域G13は、領域G12の下の領域であるとともに、領域G11の右の領域である
。そして、表示制御部33は、領域G13に当該結果を示す情報を表示する(ステップS
180)。
このように、画像処理装置20は、ユーザーから受け付けられた操作に基づいて事例情
報を選択し、選択した事例情報が示す事例を構成する複数のツールを実行する。例えば、
前述したように、事例情報に含まれる文字列や画像が、過去に行われた画像処理を表すも
のであった場合、ユーザーは、画像処理に関する専門的な知識を有していなくても、事例
情報に基づいて、所望の画像処理を行う事例を容易に選択することができる。その結果、
ユーザーは、画像処理装置20により、所望の画像処理を容易に行うことができる。
また、画像処理装置20では、事例情報を選択し、選択した事例情報が示す事例を構成
する複数のツールを実行することができるため、画像処理を行うたびに、当該画像処理に
応じたツールを示すツール情報を選択し直さなくてもよく、画像処理に関する作業の効率
化を図ることができる。
<事例及び事例情報の編集における制御部の処理>
以下、再び図8を参照し、事例及び事例情報の編集について説明する。
図8に示したメイン画面G1の領域G11には、表示されている複数のツール情報の一
部又は全部に代えて、新たなツールを示すツール情報を追加することができる。例えば、
図8に示したメイン画面G1の状態において、ユーザーによりボタンB11が押下され、
図6に示した選択方法選択画面G2においてボタンB22が押下された場合、表示制御部
33は、図示しない第1ツール選択画面をメイン画面G1に重ねて表示する。前述したよ
うに第1ツール選択画面は、カテゴリー毎に分類されたツール情報のリスト(一覧)を有
する。
第1ツール選択画面において、ユーザーにより当該リストに含まれるツール情報が選択
された場合、メイン画面G1の領域G11には、ユーザーにより選択された当該ツール情
報が追加される。そして、第2画像処理情報編集部39は、新たにツール情報が追加され
る前の領域G11に表示されていたツール情報のそれぞれが示すツールにより構成される
事例を示す事例情報に、新たにツール情報が追加された後の領域G11に表示されている
ツール情報のそれぞれが示すツールを新たに対応付け直す。
また、領域G11におけるツール情報の順序は、例えば、ツール情報をドラッグするこ
とにより入れ替えることができる。当該順序を入れ替えた場合、第2画像処理情報編集部
39は、順序が入れ替えられる前に領域G11に表示されていたツール情報のそれぞれが
示すツールにより構成される事例を示す事例情報に、順序が入れ替えられた後の領域G1
1に表示されているツール情報のそれぞれが示すツールを新たに対応付け直す。
また、メイン画面G1の領域G11に表示されている複数のツール情報の一部又は全部
は、削除することができる。例えば、ユーザーが領域G11からツール情報T11を選択
して右クリックメニューを表示させ、当該右クリックメニューの「削除」を選択した場合
、表示制御部33は、ツール情報T11を領域G11から削除する。そして、第2画像処
理情報編集部39は、ツール情報T11が削除される前の領域G11に表示されていたツ
ール情報のそれぞれが示すツールにより構成される事例を示す事例情報に、ツール情報T
11が削除された後の領域G11に表示されているツール情報のそれぞれが示すツールを
新たに対応付け直す。
このように、ユーザーは、事例情報が示す事例を構成するツールを編集することができ
る。その結果、ユーザーは、画像処理装置20により、事例情報が示す事例を、所望の画
像処理を行う事例へ容易に編集することができる。
また、画像処理装置20では、当該事例を容易に編集することができるため、過去に行
った画像処理の一部の処理が異なる画像処理(例えば、過去に行った画像処理とパラメー
ターや一部のツールのみが異なる画像処理)を行う場合、ユーザーは、過去に行った画像
処理と同じ画像処理を行う事例を示す事例情報を編集することにより、容易に所望の画像
処理を行うことができる。その結果、画像処理装置20は、画像処理に関する作業の効率
を向上させることができる。
<事例及び事例情報の生成における制御部の処理>
以下、再び図7を参照し、事例及び事例情報の生成について説明する。
図7に示した事例選択画面G3のボタンB35が押下された場合、表示制御部33は、
前述したように図示しない事例情報追加画面をメイン画面G1に重ねて表示する。事例情
報追加画面は、事例の名称を入力する欄を有する。ユーザーは、事例情報追加画面におい
て、新たに生成する事例の名称を入力することができる。
事例情報追加画面においてユーザーによる事例の名称の入力が終了した後、第2画像処
理情報生成部37は、入力された名称の事例を示す事例情報を生成する。この生成された
事例情報が示す事例には、ツールが対応付けられていない。表示制御部33は、第2画像
処理情報生成部37が生成した事例情報を事例選択画面G3に表示する。例えば、ユーザ
ーにより事例情報追加画面において「XXX」という名称が入力された場合、第2画像処
理情報生成部37は、名称が「XXX」の事例を示す事例情報を生成する。そして、表示
制御部33は、第2画像処理情報生成部37が生成した当該事例情報を図7に示した事例
選択画面G3におけるボタンが配置されていない領域に表示する。ボタンが配置されてい
ない領域は、例えば、ボタンB34の右隣りである。
前述したように、新たな事例情報が表示された直後は、当該事例情報が示す事例に、ツ
ールが対応付けられていない。このため、ユーザーは、<事例及び事例情報の編集におけ
る制御部の処理>において説明した方法により、事例選択画面G3に新たに表示された事
例情報が示す事例に1以上のツールを対応付けることができる。これにより、ユーザーは
、所望の画像処理を行う事例を示す事例情報を容易に生成することができる。
<パラメーターの入力における制御部の処理>
以下、図9及び図10を参照し、前述の編集画面におけるパラメーターの入力について
説明する。編集画面は、図8に示したメイン画面G1の領域G11に表示されたツール情
報からユーザーによりツール情報が選択された後、ボタンB12が押下されることによっ
て領域G11に表示される。すなわち、表示制御部33は、図8に示したメイン画面G1
の領域G11に表示されたツール情報からユーザーによりツール情報が選択された後にボ
タンB12が押下された場合、領域G11に編集画面を表示する。この際、表示制御部3
3は、ユーザーにより選択された当該ツール情報が示すツールに対応付けるパラメーター
を編集する編集画面を領域G11に表示する。
図9は、編集画面が表示されたメイン画面の一例を示す図である。図9に示した編集画
面の一例である編集画面G4は、この一例において、メイン画面G1の領域G11に表示
されている。また、図9に示した編集画面G4は、ツール情報T12が示す幾何探索処理
に対応付けるパラメーターを編集する編集画面である。
編集画面G4は、ツールに対応付ける各種のパラメーターを入力する複数の欄と、当該
パラメーターを選択するプルダウンメニューと、ボタンB41とボタンB42とを含む複
数のボタンとを有する。なお、編集画面G4は、ボタンB41とボタンB42を除く複数
のボタンの一部又は全部に代えて、他の情報や画像、文字列、GUI等を有する構成であ
ってもよく、当該全部に加えて、他の情報や画像、文字列、GUI等を有する構成であっ
てもよい。
ボタンB41は、編集画面G4において入力又は選択されたパラメーターを確定し、当
該パラメーターをツールに対応付けるボタンである。図9に示した例では、ボタンB41
は、当該パラメーターをツール情報T11が示す幾何探索処理に対応付けるボタンである
。表示制御部33は、ボタンB41が押下された場合、編集画面G4を削除し(閉じ)、
メイン画面G1を図8に示した状態に変更する。
ボタンB42は、編集画面G4を削除する(閉じる)ボタン(キャンセルボタン)であ
る。表示制御部33は、ボタンB42が押下された場合、編集画面G4を削除し(閉じ)
、メイン画面G1を図8に示した状態に変更する。
このように、ツールのうち、事前処理以外のツールに対応付けるパラメーターを編集す
る編集画面は、図9に示した編集画面と同様の構成を有するため、説明を省略する。事前
処理に対応付ける編集画面には、他の編集画面と異なり、事前処理において行うフィルタ
ー処理を選択するフィルター処理選択画面を表示するボタンを有する。表示制御部33は
、当該ボタンが押下された場合、フィルター処理選択画面をメイン画面G1に重ねて表示
する。
図10は、フィルター処理選択画面の一例を示す図である。図10に示したフィルター
処理選択画面の一例であるフィルター処理選択画面G5は、複数のフィルター処理のそれ
ぞれを示す情報であるフィルター処理情報のリスト(一覧)L1と、ボタンB51と、ボ
タンB52を有する。なお、フィルター処理選択画面G5は、ボタンB51とボタンB5
2のいずれか一方又は両方に代えて、他の情報や画像、文字列、GUI等を有する構成で
あってもよく、当該両方に加えて、他の情報や画像、文字列、GUI等を有する構成であ
ってもよい。
リストL1には、二値化フィルター処理を示すフィルター処理情報と、平滑化フィルタ
ー処理を示すフィルター処理情報と、鮮鋭化フィルター処理を示すフィルター処理情報と
、メディアンフィルター処理を示すフィルター処理情報等の複数のフィルター処理情報が
含まれている。ユーザーは、フィルター処理選択画面G5のリストL1に含まれるフィル
ター処理情報から、事前処理において行うフィルター処理を示すフィルター処理情報を選
択することができる。
ボタンB51は、リストL1からユーザーにより選択されたフィルター処理情報を、事
前処理において行うフィルター処理として確定させ、事前処理に対応付けるボタンである
。なお、事前処理には、1以上のフィルター処理を対応付けることができる。また、当該
1以上のフィルター処理のうちの一部又は全部は、機能が同じフィルター処理であっても
よい。例えば、事前処理に平滑化フィルター処理を2つ対応付けた場合、事前処理では、
平滑化フィルター処理が2回行われる。
ボタンB52は、フィルター処理選択画面G5を削除する(閉じる)ボタン(キャンセ
ルボタン)である。表示制御部33は、ボタンB52が押下された場合、フィルター処理
選択画面G5を削除する。
なお、上記の説明において、ツールは、更に複数の他の画像処理によって構成されても
よい。この場合、当該ツールは、上記の説明における事例に相当し、複数の当該他の画像
処理は、上記の説明におけるツールに相当する。この場合の具体例の一つが、上記におい
て説明した事前処理とフィルター処理との関係である。また、上記の説明において、他の
画像処理が、複数の事例によって構成されてもよい。この場合、当該事例は、上記の説明
におけるツールに相当し、当該他の画像処理は、上記の説明における事例に相当する。
<実施形態の変形例>
以下、図11及び図12を参照し、実施形態の変形例について説明する。なお、実施形
態の変形例では、実施形態と同様な構成部に対して同じ符号を付して説明を省略する。図
11は、実施形態の変形例に係るロボット50の一例を示す構成図である。実施形態の変
形例では、上記の実施形態において説明した画像処理装置20が備える機能部の一部を、
ロボット50に内蔵されたロボット制御装置60が備える。
<ロボットの構成>
まず、ロボット50の構成について説明する。
ロボット50は、第1アームと、第2アームと、第1アーム及び第2アームを支持する
支持台と、ロボット制御装置60を備える双腕ロボットである。双腕ロボットは、この一
例における第1アームと第2アームのような2本のアーム(腕)を備えるロボットである
。なお、ロボット50は、双腕ロボットに代えて、単腕ロボットであってもよい。単腕ロ
ボットは、1本のアームを備えるロボットである。例えば、単腕ロボットは、第1アーム
と第2アームのいずれか一方を備える。また、ロボット50は、双腕ロボットに代えて、
3本以上のアームを備える複腕ロボットであってもよい。
第1アームは、第1エンドエフェクターE1と第1マニピュレーターM1を備える。
第1エンドエフェクターE1は、この一例において、物体を把持可能な爪部を備えるエ
ンドエフェクターである。なお、第1エンドエフェクターE1は、当該爪部を備えるエン
ドエフェクターに代えて、電動ドライバーを備えるエンドエフェクター等の他のエンドエ
フェクターであってもよい。
第1エンドエフェクターE1は、ケーブルによってロボット制御装置60と通信可能に
接続されている。これにより、第1エンドエフェクターE1は、ロボット制御装置60か
ら取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば
、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行わ
れる。また、第1エンドエフェクターE1は、Wi−Fi(登録商標)等の通信規格によ
り行われる無線通信によってロボット制御装置60と接続される構成であってもよい。
第1マニピュレーターM1は、7つの関節と、第1撮像部51を備える。また、7つの
関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、第1マニピュレータ
ーM1を備える第1アームは、7軸垂直多関節型のアームである。第1アームは、支持台
と、第1エンドエフェクターE1と、第1マニピュレーターM1と、第1マニピュレータ
ーM1が備える7つの関節それぞれのアクチュエーターとによる連携した動作によって7
軸の自由度の動作を行う。なお、第1アームは、6軸以下の自由度で動作する構成であっ
てもよく、8軸以上の自由度で動作する構成であってもよい。
第1アームが7軸の自由度で動作する場合、第1アームは、6軸以下の自由度で動作す
る場合と比較して取り得る姿勢が増える。これにより第1アームは、例えば、動作が滑ら
かになり、更に第1アームの周辺に存在する物体との干渉を容易に回避することができる
。また、第1アームが7軸の自由度で動作する場合、第1アームの制御は、第1アームが
8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。
第1マニピュレーターM1が備える7つの(関節に備えられた)アクチュエーターはそ
れぞれ、ケーブルによってロボット制御装置60と通信可能に接続されている。これによ
り、当該アクチュエーターは、ロボット制御装置60から取得される制御信号に基づいて
、第1マニピュレーターM1を動作させる。なお、ケーブルを介した有線通信は、例えば
、イーサネット(登録商標)やUSB等の規格によって行われる。また、第1マニピュレ
ーターM1が備える7つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録
商標)等の通信規格により行われる無線通信によってロボット制御装置60と接続される
構成であってもよい。
第1撮像部51は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。この一例において、第1撮像部51は、第1マニピ
ュレーターM1の一部に備えられる。そのため、第1撮像部51は、第1アームの動きに
応じて移動する。また、第1撮像部51が撮像可能な範囲は、第1アームの動きに応じて
変化する。第1撮像部51は、当該範囲の静止画像を撮像する構成であってもよく、当該
範囲の動画像を撮像する構成であってもよい。
また、第1撮像部51は、ケーブルによってロボット制御装置60と通信可能に接続さ
れている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等
の規格によって行われる。なお、第1撮像部51は、Wi−Fi(登録商標)等の通信規
格により行われる無線通信によってロボット制御装置60と接続される構成であってもよ
い。
第2アームは、第2エンドエフェクターE2と第2マニピュレーターM2を備える。
第2エンドエフェクターE2は、この一例において、物体を把持可能な爪部を備えるエ
ンドエフェクターである。なお、第2エンドエフェクターE2は、当該爪部を備えるエン
ドエフェクターに代えて、電動ドライバーを備えるエンドエフェクター等の他のエンドエ
フェクターであってもよい。
第2エンドエフェクターE2は、ケーブルによってロボット制御装置60と通信可能に
接続されている。これにより、第2エンドエフェクターE2は、ロボット制御装置60か
ら取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば
、イーサネット(登録商標)やUSB等の規格によって行われる。また、第2エンドエフ
ェクターE2は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって
ロボット制御装置60と接続される構成であってもよい。
第2マニピュレーターM2は、7つの関節と、第2撮像部52を備える。また、7つの
関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、第2マニピュレータ
ーM2を備える第2アームは、7軸垂直多関節型のアームである。第2アームは、支持台
と、第2エンドエフェクターE2と、第2マニピュレーターM2と、第2マニピュレータ
ーM2が備える7つの関節それぞれのアクチュエーターとによる連携した動作によって7
軸の自由度の動作を行う。なお、第2アームは、6軸以下の自由度で動作する構成であっ
てもよく、8軸以上の自由度で動作する構成であってもよい。
第2アームが7軸の自由度で動作する場合、第2アームは、6軸以下の自由度で動作す
る場合と比較して取り得る姿勢が増える。これにより第2アームは、例えば、動作が滑ら
かになり、更に第2アームの周辺に存在する物体との干渉を容易に回避することができる
。また、第2アームが7軸の自由度で動作する場合、第2アームの制御は、第2アームが
8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。
第2マニピュレーターM2が備える7つの(関節に備えられた)アクチュエーターはそ
れぞれ、ケーブルによってロボット制御装置60と通信可能に接続されている。これによ
り、当該アクチュエーターは、ロボット制御装置60から取得される制御信号に基づいて
、第2マニピュレーターM2を動作させる。なお、ケーブルを介した有線通信は、例えば
、イーサネット(登録商標)やUSB等の規格によって行われる。また、第2マニピュレ
ーターM2が備える7つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録
商標)等の通信規格により行われる無線通信によってロボット制御装置60と接続される
構成であってもよい。
第2撮像部52は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。この一例において、第2撮像部52は、第2マニピ
ュレーターM2の一部に備えられる。そのため、第2撮像部52は、第2アームの動きに
応じて移動する。また、第2撮像部52が撮像可能な範囲は、第2アームの動きに応じて
変化する。第2撮像部52は、当該範囲の静止画像を撮像する構成であってもよく、当該
範囲の動画像を撮像する構成であってもよい。
また、第2撮像部52は、ケーブルによってロボット制御装置60と通信可能に接続さ
れている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等
の規格によって行われる。なお、第2撮像部52は、Wi−Fi(登録商標)等の通信規
格により行われる無線通信によってロボット制御装置60と接続される構成であってもよ
い。
また、ロボット50は、第3撮像部53と、第4撮像部54を備える。
第3撮像部53は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。第3撮像部53は、第4撮像部54が撮像可能な範
囲を第4撮像部54とともにステレオ撮像可能な部位に備えられる。第3撮像部53は、
ケーブルによってロボット制御装置60と通信可能に接続されている。ケーブルを介した
有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。な
お、第3撮像部53は、Wi−Fi(登録商標)等の通信規格により行われる無線通信に
よってロボット制御装置60と接続される構成であってもよい。
第4撮像部54は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。第4撮像部54は、第3撮像部53が撮像可能な範
囲を第3撮像部53とともにステレオ撮像可能な部位に備えられる。第4撮像部54は、
ケーブルによって通信可能にロボット制御装置60と接続されている。ケーブルを介した
有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。な
お、第4撮像部54は、Wi−Fi(登録商標)等の通信規格により行われる無線通信に
よってロボット制御装置60と接続される構成であってもよい。
上記で説明したロボット50が備えるこれらの各機能部は、この一例において、ロボッ
ト50に内蔵されたロボット制御装置60から制御信号を取得する。そして、当該各機能
部は、取得した制御信号に基づいた動作を行う。なお、ロボット50は、ロボット制御装
置60を内蔵する構成に代えて、外部に設置されたロボット制御装置60により制御され
る構成であってもよい。この場合、ロボット50と、ロボット制御装置60とは、ロボッ
トシステムを構成する。また、ロボット50は、第1撮像部51と、第2撮像部52と、
第3撮像部53と、第4撮像部54のうちの一部を備えない構成であってもよい。
ロボット制御装置60は、ロボット50に制御信号を送信することにより、ロボット5
0を動作させる。これにより、ロボット制御装置60は、ロボット50に所定の作業を行
わせる。
なお、第1撮像部51と、第2撮像部52と、第3撮像部53と、第4撮像部54との
うちの一部又は全部は、ロボット50と別体の撮像部であってもよい。この場合、ロボッ
ト50と、ロボット50と別体の撮像部と、ロボット制御装置60とは、ロボットシステ
ムを構成する。
<ロボット制御装置60のハードウェア構成>
以下、ロボット制御装置60のハードウェア構成について説明する。なお、ロボット制
御装置60のハードウェア構成の一例を示す図は、図2に示した画像処理装置20のハー
ドウェア構成の一例を示す図の符号のみを変更した図と同様である。ロボット制御装置3
0は、例えば、CPU61と、記憶部62と、入力受付部63と、通信部64と、表示部
65を備える。また、ロボット制御装置60は、通信部64を介してロボット50と通信
を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。
CPU61は、記憶部62に格納された各種プログラムを実行する。
記憶部62は、例えば、HDDやSSD、EEPROM、ROM、RAM等を含む。な
お、記憶部62は、ロボット制御装置60に内蔵されるものに代えて、USB等のデジタ
ル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部62は
、ロボット制御装置60が処理する各種情報や画像、プログラム、図示しない給材領域の
位置を示す情報等を格納する。
入力受付部63は、例えば、キーボードやマウス、タッチパッド等を備えたティーチン
グペンダントや、その他の入力装置である。なお、入力受付部63は、タッチパネルとし
て表示部65と一体に構成されてもよい。
通信部64は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)
ポート等を含んで構成される。
表示部65は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLumin
escence)ディスプレイパネルである。
<ロボット制御装置の機能構成>
以下、図12を参照し、ロボット制御装置60の機能構成について説明する。図12は
、ロボット制御装置60の機能構成の一例を示す図である。ロボット制御装置60は、記
憶部62と、入力受付部63と、表示部65と、制御部68を備える。
画像取得部67は、第1撮像部51が撮像した撮像画像を、第1撮像部51から取得す
る。また、画像取得部67は、第2撮像部52が撮像した撮像画像を、第2撮像部52か
ら取得する。また、画像取得部67は、第3撮像部53が撮像した撮像画像を、第3撮像
部53から取得する。また、画像取得部67は、第4撮像部54が撮像した撮像画像を、
第4撮像部54から取得する。
制御部68は、ロボット制御装置60の全体を制御する。制御部68は、撮像制御部3
1aと、表示制御部33と、第2画像処理情報生成部37と、第2画像処理情報編集部3
9と、画像処理実行部43と、ロボット制御部45を備える。制御部68が備えるこれら
の機能部は、例えば、CPU61が、記憶部62に記憶された各種プログラムを実行する
ことにより実現される。また、これらの機能部のうち一部又は全部は、LSI(Large S
cale Integration)やASIC(Application Specific Integrated Circuit)等の
ハードウェア機能部であってもよい。
撮像制御部31aは、対象物Oを含む撮像範囲を第1撮像部51と、第2撮像部52と
、第3撮像部53と、第4撮像部54とのいずれかに撮像させる。以下では、一例として
、撮像制御部31aが、第3撮像部53に当該撮像範囲を撮像させる場合について説明す
る。
ロボット制御部45は、画像取得部67が第3撮像部53から取得した撮像画像に対し
て画像処理実行部43により行われた画像処理の結果に基づいて、ロボット50を動作さ
せる。例えば、画像処理装置20により行われた画像処理の結果は、当該撮像画像に含ま
れる対象物Oの重心のロボット座標系における位置を算出した結果である。この場合、ロ
ボット制御部45は、当該位置に基づいて、対象物Oを第1アーム又は第2アームに把持
させる。
このように、画像処理装置20が備える機能部の一部をロボット制御装置60が備える
ことにより、ロボット50は、実施形態と同様の効果を得ることができる。すなわち、ロ
ボット50が備えるロボット制御装置60では、ユーザーは、ロボット50に所定の作業
を行わせるために必要な画像処理に関する専門的な知識を有していなくても、事例情報に
基づいて、所望の画像処理を行う事例を容易に選択することができる。その結果、ユーザ
ーは、ロボット制御装置60により、所望の画像処理を容易に行うことができ、ロボット
50に所定の作業を容易に行わせることができる。
また、ロボット50が備えるロボット制御装置60では、事例情報を選択し、選択した
事例情報が示す事例を構成する複数のツールを実行することができるため、ロボット50
に所定の作業を行わせるために必要な画像処理を行おうとするたびに、当該画像処理に応
じたツールを示すツール情報を選択し直さなくてもよく、当該画像処理に関する作業の効
率化を図ることができる。
なお、実施形態の変形例では、画像処理装置20が備える機能部の一部をロボット制御
装置60が備える場合について説明したが、ロボット50は、ロボット制御装置60と、
画像処理装置20とを別体として備える構成であってもよい。この場合、ロボット制御装
置60と画像処理装置20とは、有線又は無線によって互いに通信可能に接続される。ま
た、この場合、ロボット50と、ロボット制御装置60と、画像処理装置20とは、ロボ
ットシステムを構成する。そして、ロボット制御装置60は、画像処理装置20を介して
第3撮像部53に撮像範囲を撮像させ、撮像させた撮像画像に基づく画像処理を画像処理
装置20に行わせ、当該画像処理の結果を画像処理装置20から取得する。ロボット制御
装置60は、取得した画像処理の結果に基づいてロボット50に所定の作業を行わせる。
また、実施形態の変形例では、画像処理装置20が備える機能部の一部をロボット制御
装置60が備える場合について説明したが、ロボット50は、ロボット制御装置60の機
能部の一部を備えた画像処理装置20を、ロボット制御装置60の代わりとして備える構
成であってもよい。この場合、画像処理装置20は、ロボット50に内蔵されてもよく、
ロボット50と別体としてロボット50とともにロボットシステムに備えられる構成であ
ってもよい。そして、画像処理装置20は、第3撮像部53に撮像範囲を撮像させ、撮像
させた撮像画像に基づく画像処理を行い、当該画像処理の結果に基づいてロボット50に
所定の作業を行わせる。
以上説明したように、実施形態における画像処理装置20(又はロボット50、前述の
ロボットシステム)は、ユーザーからの操作を受け付け、受け付けた操作に基づいて、複
数の第1画像処理(この一例において、ツール)により構成される第2画像処理(この一
例において、事例)を示す情報である第2画像処理情報(この一例において、事例情報)
を選択し、第2画像処理情報が示す第2画像処理を構成する複数の第1画像処理の編集を
行う。これにより、画像処理装置20では、ユーザーが所望する画像処理を容易に行うこ
とができる。
また、画像処理装置20は、複数の第2画像処理情報を表示部(この一例において、表
示部25又は表示部65)に表示させ、表示させた当該複数の第2画像処理情報から第2
画像処理情報を選択可能である。これにより、画像処理装置20は、選択された第2画像
処理情報に基づいて、ユーザーが所望する画像処理を容易に行うことができる。
また、画像処理装置20は、ユーザーから受け付けた操作に基づいて、第2画像処理情
報が示す第2画像処理を構成する第1画像処理を示す第1画像処理情報(この一例におい
て、ツール情報)の追加又は削除を、第2画像処理情報が示す第2画像処理を構成する複
数の第1画像処理の編集として行う。これにより、画像処理装置20は、第2画像処理を
ユーザーが所望する画像処理に変更することができる。
また、画像処理装置20は、第1画像処理情報に基づく第1画像処理の実行において用
いられるパラメーターをユーザーが入力可能である。これにより、画像処理装置20は、
入力したパラメーターに基づいて、ユーザーが所望する画像処理を容易に行うことができ
る。
また、画像処理装置20は、ユーザーから受け付けた操作に基づいて第1画像処理情報
を2以上選択し、選択した第1画像処理情報に基づいて第2画像処理情報を生成する。こ
れにより、画像処理装置は、生成した第2画像処理情報に基づいて、ユーザーが所望する
画像処理を容易に行うことができる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実
施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等
されてもよい。
また、以上に説明した装置(例えば、画像処理装置20、ロボット50のロボット制御
装置60)における任意の構成部の機能を実現するためのプログラムを、コンピューター
読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ま
せて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、O
S(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コン
ピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、R
OM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵さ
れるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な
記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプロ
グラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の
揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むもの
とする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシ
ステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータ
ーシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インタ
ーネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を
伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい
。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録さ
れているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プロ
グラム)であってもよい。
1…画像処理システム、10…撮像部、20…画像処理装置、21、61…CPU、22
、62…記憶部、23、63…入力受付部、24、64…通信部、25、65…表示部、
27、67…画像取得部、28、68…制御部、31、31a…撮像制御部、33…表示
制御部、37…第2画像処理情報生成部、39…第2画像処理情報編集部、43…画像処
理実行部、45…ロボット制御部、50…ロボット、51…第1撮像部、52…第2撮像
部、53…第3撮像部、54…第4撮像部、60…ロボット制御装置

Claims (8)

  1. 画像に含まれる物体の検査又は計測を行う画像処理装置であって、
    ユーザーからの操作を受け付け、
    受け付けた前記操作に基づいて、複数の第1画像処理により構成される第2画像処理を
    示す情報である第2画像処理情報を選択し、
    前記第2画像処理情報が示す前記第2画像処理を構成する複数の前記第1画像処理の編
    集を行う、
    画像処理装置。
  2. 複数の前記第2画像処理情報を表示部に表示させ、表示させた当該複数の前記第2画像
    処理情報から前記第2画像処理情報を選択可能である、
    請求項1に記載の画像処理装置。
  3. ユーザーから受け付けた操作に基づいて、前記第2画像処理情報が示す前記第2画像処
    理を構成する前記第1画像処理を示す第1画像処理情報の追加又は削除を前記編集として
    行う、
    請求項1又は2に記載の画像処理装置。
  4. 前記第1画像処理情報が示す前記第1画像処理の実行において用いられるパラメーター
    をユーザーが入力可能である、
    請求項3に記載の画像処理装置。
  5. ユーザーから受け付けた操作に基づいて前記第1画像処理情報を2以上選択し、選択し
    た前記第1画像処理情報に基づいて前記第2画像処理情報を生成する、
    請求項3又は4に記載の画像処理装置。
  6. 請求項1から5のうちいずれか一項に記載の画像処理装置と、
    前記画像処理装置による画像処理の結果に基づいて所定の作業を行うロボットと、
    を備えるロボットシステム。
  7. 請求項1から5のうちいずれか一項に記載の画像処理装置を備える、
    ロボット。
  8. 画像に含まれる物体の検査又は計測を行う画像処理方法であって、
    ユーザーからの操作を受け付ける操作受付ステップと、
    前記操作受付ステップにより受け付けた第1の前記操作に基づいて、複数の第1画像処
    理により構成される第2画像処理を示す情報である第2画像処理情報を選択する選択ステ
    ップと、
    前記操作受付ステップにより受け付けた第2の前記操作に基づいて、前記第2画像処理
    情報が示す前記第2画像処理を構成する複数の前記第1画像処理の編集を行う編集ステッ
    プと、
    を有する画像処理方法。
JP2015221880A 2015-11-12 2015-11-12 画像処理装置、ロボットシステム、ロボット、及び画像処理方法 Withdrawn JP2017091295A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015221880A JP2017091295A (ja) 2015-11-12 2015-11-12 画像処理装置、ロボットシステム、ロボット、及び画像処理方法
CN201610944151.1A CN107040709A (zh) 2015-11-12 2016-11-02 图像处理装置、机器人系统、机器人以及图像处理方法
EP16198147.7A EP3171329A1 (en) 2015-11-12 2016-11-10 Image processing apparatus, robot system, robot, and image processing method
US15/348,236 US10306149B2 (en) 2015-11-12 2016-11-10 Image processing apparatus, robot system, robot, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015221880A JP2017091295A (ja) 2015-11-12 2015-11-12 画像処理装置、ロボットシステム、ロボット、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2017091295A true JP2017091295A (ja) 2017-05-25
JP2017091295A5 JP2017091295A5 (ja) 2018-12-13

Family

ID=58770857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015221880A Withdrawn JP2017091295A (ja) 2015-11-12 2015-11-12 画像処理装置、ロボットシステム、ロボット、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2017091295A (ja)

Similar Documents

Publication Publication Date Title
CN105269578B (zh) 指示装置以及机器人系统
US10306149B2 (en) Image processing apparatus, robot system, robot, and image processing method
JP4835616B2 (ja) 動作教示システム及び動作教示方法
CN111014995B (zh) 非标非结构化作业环境的机器人焊接方法及系统
JP2014512530A (ja) 座標位置決め装置
US11833697B2 (en) Method of programming an industrial robot
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
US12026350B2 (en) Configuring remote devices through volumetric video telepresence interfaces
CN112446287A (zh) 设置设备的控制处理过程的电子装置、方法和存储介质
WO2021215333A1 (ja) プログラム編集装置
JP6488571B2 (ja) 教示装置、及びロボットシステム
JP2017091295A (ja) 画像処理装置、ロボットシステム、ロボット、及び画像処理方法
JP2018017610A (ja) 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
JP6998775B2 (ja) 画像測定機およびプログラム
JP7179633B2 (ja) 計測方法、計測装置、およびプログラム
JP2020123049A (ja) 寸法単位設定方法、情報処理装置、及びロボットシステム
JP2016013590A (ja) 教示装置、及びロボットシステム
JP2018005450A (ja) 画像処理装置、ロボット制御装置、及びロボット
JP2015026226A (ja) 拾いデータ処理システム
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot
KR102252984B1 (ko) 반도체 공정 장비에서의 복수 개의 장비 사이에서 전환하여 사용될 수 있는 일체형 입력장치
US20180150231A1 (en) Data management device, data management method, and robot system
KR102613765B1 (ko) 3d 투어를 이용한 건축물의 하자 보수 요청 장치 및 방법
JP6985158B2 (ja) 画像測定機およびプログラム
US20230249345A1 (en) System and method for sequencing assembly tasks

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181026

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20191202