JP2020160562A - 制御システム、制御方法、プログラム - Google Patents

制御システム、制御方法、プログラム Download PDF

Info

Publication number
JP2020160562A
JP2020160562A JP2019056622A JP2019056622A JP2020160562A JP 2020160562 A JP2020160562 A JP 2020160562A JP 2019056622 A JP2019056622 A JP 2019056622A JP 2019056622 A JP2019056622 A JP 2019056622A JP 2020160562 A JP2020160562 A JP 2020160562A
Authority
JP
Japan
Prior art keywords
image
predetermined
icon
predetermined object
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019056622A
Other languages
English (en)
Other versions
JP6840402B2 (ja
Inventor
俊太朗 井崎
Shuntaro Izaki
俊太朗 井崎
三好 堀川
Mitsuyoshi Horikawa
三好 堀川
東 岡本
Azuma Okamoto
東 岡本
一歩希 猪股
Ibuki Inomata
一歩希 猪股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate Prefectural University
Original Assignee
Iwate Prefectural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate Prefectural University filed Critical Iwate Prefectural University
Priority to JP2019056622A priority Critical patent/JP6840402B2/ja
Publication of JP2020160562A publication Critical patent/JP2020160562A/ja
Application granted granted Critical
Publication of JP6840402B2 publication Critical patent/JP6840402B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】所定の対象の位置が異なる場合や状況に応じて変わる場合であっても、当該対象に対する所定の動作を正確且つ自動的に行うことの可能な制御システム、制御方法、プログラムを提供する。【解決手段】制御システムは、所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得する第1取得手段41と、所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、第1画像内に所定の対象が含まれていることを検出する第1検出手段42と、第1画像内に所定の対象が含まれていることを検出した場合に、所定の対象に対して所定の動作を行うように動作機構を制御する制御手段43と、を備える。【選択図】図3

Description

本発明は、制御システム、制御方法、プログラムに関する。
従来、所定の作業を行うために例えばロボット等の動作機構を用いる技術が知られている(例えば、特許文献1)。特許文献1に記載された技術では、ロボットが、所定の位置に配置された対象物を把持し、当該対象物を、工具によって機械加工可能な位置に移動させるようになっている。
特開2017−222010号公報
従来技術では、ロボットが一定の位置において対象物を把持するという動作を行うように構成されているので、例えば、対象物が決められた位置からずれた位置に配置される等のように対象物の配置位置が決められた位置と異なる場合や状況に応じて変わる場合には、ロボットは、決められた位置において対象物を把持することができず、結果として、ロボットが対象物を把持するという動作を正確且つ自動的に行うことが困難になる虞があった。
本発明は上記課題に鑑みてなされたものであり、所定の対象の位置が異なる場合や状況に応じて変わる場合であっても、当該対象に対する所定の動作を正確且つ自動的に行うことの可能な制御システム、制御方法、プログラムを提供することを目的とする。
上記課題を解決するために、第一に本発明は、所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得する第1取得手段と、所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、前記第1画像内に前記所定の対象が含まれていることを検出する第1検出手段と、前記第1画像内に前記所定の対象が含まれていることを検出した場合に、前記所定の対象に対して前記所定の動作を行うように前記動作機構を制御する制御手段と、を備える制御システムを提供する(発明1)。
かかる発明(発明1)によれば、撮像装置によって撮像された第1画像が取得されると、第1画像に含まれる所定の対象が学習済モデルに基づいて検出され、検出された所定の対象に対して所定の動作を行うように動作機構が制御されるので、例えば、第1画像に所定の対象が含まれている場合には、第1画像内の所定の対象の位置に基づいて、動作機構が所定の動作を行う位置を所定の対象の位置に一致させた上で当該所定の動作を行うように動作機構を制御することが可能になる。これにより、第1画像に所定の対象が含まれている場合には、当該対象の位置に拘わらずに当該対象に対して所定の動作を行うことができるので、所定の対象の位置が異なる場合や状況に応じて変わる場合であっても、当該対象に対する所定の動作を正確且つ自動的に行うことができる。
上記発明(発明1)においては、前記所定の対象に対して前記所定の動作が行われた場合に、前記所定の対象の位置を撮像範囲に含む第2画像であって、前記撮像装置によって撮像された第2画像を取得する第2取得手段と、前記第2画像に基づいて所定の異常が発生したことを検出する第2検出手段と、前記所定の異常が発生したことを検出した場合に、異常の発生に関する情報を提示する提示手段と、を備えてもよい(発明2)。
かかる発明(発明2)によれば、所定の対象に対して所定の動作が行われた場合に撮像された第2画像に基づいて所定の異常が発生したことが検出されると、異常の発生に関する情報が提示されるので、所定の対象に対して所定の動作を行った場合に異常が発生したことを容易に認識することができる。
上記発明(発明1〜2)においては、前記所定の対象は、タッチスクリーンに表示されたアプリケーションのアイコンであって、前記制御手段は、前記第1画像内に前記アイコンが含まれていることを検出した場合に、前記アプリケーションを実行するために前記アイコンにタッチするように前記動作機構を制御してもよい(発明3)。
かかる発明(発明3)によれば、アプリケーションを実行するために、タッチスクリーンに表示されたアプリケーションのアイコンをタッチするという動作を、動作機構を用いて正確且つ自動的に行うことができる。
上記発明(発明1〜3)においては、前記動作機構はロボットアームであってもよい(発明4)。
かかる発明(発明4)によれば、所定の対象に対する所定の動作を、ロボットアームを用いて正確且つ自動的に行うことができる。
第二に本発明は、コンピュータに、所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得するステップと、所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、前記第1画像内に前記所定の対象が含まれていることを検出するステップと、前記第1画像内に前記所定の対象が含まれていることを検出した場合に、前記所定の対象に対して前記所定の動作を行うように前記動作機構を制御するステップと、の各ステップを実行させる、制御方法を提供する(発明5)。
第三に本発明は、コンピュータに、所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得する機能と、所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、前記第1画像内に前記所定の対象が含まれていることを検出する機能と、前記第1画像内に前記所定の対象が含まれていることを検出した場合に、前記所定の対象に対して前記所定の動作を行うように前記動作機構を制御する機能と、を実現させるためのプログラムを提供する(発明6)。
本発明の制御システム、制御方法、プログラムによれば、所定の対象の位置が異なる場合や状況に応じて変わる場合であっても、当該対象に対する所定の動作を正確且つ自動的に行うことができる。
本発明の一実施形態に係る制御システムの基本構成を概略的に示す図である。 制御装置の構成を示すブロック図である。 制御システムで主要な役割を果たす機能を説明するための機能ブロック図である。 取得データの構成例を示す図である。 学習用データの構成例を示す図である。 (a)は、所定の対象を含む撮像画像の一例を示す図であり、(b)は、所定の動作を行う位置を所定の対象の位置に一致させるように動作機構を制御した場合の撮像画像の一例を示す図である。 (a)〜(b)は、図6(a)に示す位置と異なる位置に存在する所定の対象を含む撮像画像の一例を示す図である。 本発明の一実施形態に係る制御システムの主要な処理の一例を示すフローチャートである。
以下、本発明の一実施形態について添付図面を参照して詳細に説明する。ただし、この実施形態は例示であり、本発明はこれに限定されるものではない。
(1)制御システムの基本構成
図1は、本発明の一実施形態に係る制御システムの基本構成を概略的に示す図である。図1に示すように、本実施形態に係る制御システムは、通信装置Aに搭載された所定のアプリケーションを実行するために、通信装置Aの表示画面(タッチスクリーン)に表示された当該アプリケーションのアイコンをタッチペンTでタッチするように、タッチペンTを把持するロボットアーム10を制御するように構成されている。なお、本実施形態において、タッチペンTを用いたタッチ動作は、本発明の「所定の動作」の一例である。
ロボットアーム10の上方には撮像装置20が所定の支持装置(図示省略)によって支持されるように設けられており、ロボットアーム10の動作位置を撮像範囲に含む第1画像であって、撮像装置20によって撮像された第1画像を制御装置30が取得すると、制御装置30が、アプリケーションのアイコンの撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、第1画像内にアイコンが含まれていることを検出し、第1画像内にアイコンの対象が含まれていることを検出した場合に、アイコンをタッチペンTでタッチするようにロボットアーム10を制御するようになっている。
通信装置Aは、例えば、1つ以上のアプリケーションのアイコンが表示されるタッチスクリーンを備えており、タッチスクリーン上でアイコンがタッチされることによって、タッチされたアイコンに対応するアプリケーションを実行するように構成されている。通信装置Aは、例えば、スマートフォン、PDA(Personal Digital Assistant)、パーソナルコンピュータ等のように、個々のユーザによって操作される通信装置であってもよい。なお、本実施形態において、所定のアプリケーションのアイコンは、本発明の「所定の対象」の一例である。
ロボットアーム10は、例えば、水平又は垂直多関節型(例えば、6軸型等)のロボットアームであり、各関節部分が、回動軸を中心に回動可能に構成されている。また、ロボットアーム10の先端部は、タッチペンTを、通信装置Aのタッチスクリーンの表面に対して垂直方向(図1の例では、上下方向)に延在するように把持しており、制御装置30の制御によって、タッチペンTをその延在方向(図1の例では、上下方向)に沿って移動させるように動作する。なお、本実施形態において、ロボットアーム10は、本発明の「動作機構」の一例である。
撮像装置20は、例えば、動画像及び/又は静止画像を撮像する撮像装置(例えば、デジタルカメラやデジタルビデオカメラ等)であってもよく、ロボットアーム10の上方の所定位置において、タッチペンTの延在方向一方側の方向(図の例では、下方向)を撮像するように設けられている。撮像装置20は、例えば、所定時間(例えば、5秒等)経過毎に又は制御装置30の制御によって撮像処理を行い、撮像した画像を制御装置30に送信するように構成されている。
また、ロボットアーム10には、例えば、通信装置Aの載置面上のロボットアーム10の位置を検出する位置センサ(図示省略)が設けられており、位置センサは、例えば、所定時間(例えば、5秒等)経過毎に又は制御装置30の制御によって位置検出を行い、検出した位置に関する情報(例えば、通信装置Aの載置面上の所定位置を原点とした二次元座標等)を制御装置30に送信してもよい。なお、位置センサは、例えば、誘導、電位差、磁気抵抗等に基づいて位置を検出する周知の位置センサであってもよい。
制御装置30は、ロボットアーム10及び撮像装置20の各々と有線又は無線で通信可能に接続されている。制御装置30は、例えば、汎用のパーソナルコンピュータであってもよい。
(2)制御装置の構成
図2を参照して制御装置30の構成について説明する。図2は、制御装置30の内部構成を示すブロック図である。図2に示すように、制御装置30は、CPU(Central Processing Unit)31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33と、記憶装置34と、表示処理部35と、表示部36と、入力部37と、通信インタフェース部38と、を備えており、各部間の制御信号又はデータ信号を伝送するためのバス30aが設けられている。
CPU31は、電源が制御装置30に投入されると、ROM32又は記憶装置34に記憶された各種のプログラムをRAM33にロードして実行する。本実施形態では、CPU31は、ROM32又は記憶装置34に記憶されたプログラムを読み出して実行することにより、後述する第1取得手段41、第1検出手段42、制御手段43、第2取得手段44、第2検出手段45及び提示手段46(図3に示す)の機能を実現する。
記憶装置34は、例えば、フラッシュメモリ、SSD(Solid State Drive)、磁気記憶装置(例えばHDD(Hard Disk Drive)、フロッピー(登録商標)ディスク、磁気テープ等)、光ディスク等の不揮発性の記憶装置であってもよいし、RAM等の揮発性の記憶装置であってもよく、CPU31が実行するプログラムやCPU31が参照するデータを格納する。また、記憶装置34には、後述する取得データ(図4に示す)及び学習用データ(図5に示す)が記憶されている。
表示処理部35は、CPU31から与えられる表示用データを表示部36に表示する。表示部36は、例えば、マトリクス状に画素単位で配置された薄膜トランジスタを含むLCD(Liquid Crystal Display)モニタであり、表示用データに基づいて薄膜トランジスタを駆動することで、表示されるデータを表示画面に表示する。
入力部37は、例えばマウスやキーボード等の情報入力デバイスであってもよい。また、制御装置30が釦入力方式の端末装置である場合には、入力部37は、ユーザの操作入力を受け入れるための方向指示釦及び決定釦等の複数の指示入力釦を含む釦群と、テンキー等の複数の指示入力釦を含む釦群とを備え、各釦の押下(操作)入力を認識してCPU31へ出力するためのインタフェース回路を含む。
制御装置30がタッチパネル入力方式の端末装置である場合には、入力部37は、主として表示画面に指先又はペンで触れることによるタッチパネル方式の入力を受け付ける。タッチパネル入力方式は、静電容量方式等の公知の方式でよい。
また、制御装置30が音声入力可能な端末装置である場合には、入力部37は、音声入力用のマイクを含むように構成されてもよいし、外付けのマイクを介して入力された音声データをCPU31へ出力するためのインタフェース回路を備えてもよい。
通信インタフェース部38は、ロボットアーム10及び撮像装置20の各々と通信を行うためのインタフェース回路を含む。
(3)制御システムにおける各機能の概要
本実施形態の制御システムで実現される機能について、図3を参照して説明する。図3は、本実施形態の制御システムで主要な役割を果たす機能を説明するための機能ブロック図である。図3の機能ブロック図では、第1取得手段41、第1検出手段42及び制御手段43が本発明の制御システムの主要な構成に対応している。他の手段(第2取得手段44、第2検出手段45及び提示手段46)は必ずしも必須の構成ではないが、本発明をさらに好ましくするための構成要素である。
第1取得手段41は、タッチペンTを用いたタッチ動作(所定の動作)を行うロボットアーム10(動作機構)の動作位置を撮像範囲に含む第1画像であって、撮像装置20によって撮像された画像(第1画像)を取得する機能を備える。ここで、動作機構はロボットアーム10であってもよい。
第1取得手段41の機能は、例えば以下のように実現される。先ず、撮像装置20は、所定時間(例えば、5秒等)経過毎に撮像処理を行い、撮像した画像を制御装置30に送信する。また、ロボットアーム10に設けられた位置センサは、所定時間(例えば、5秒等)経過毎に位置検出を行い、検出した位置に関する情報を制御装置30に送信する。一方、制御装置30のCPU31は、撮像装置20が撮像した画像(第1画像)と、位置センサが検出した位置に関する情報とを、通信インタフェース部38を介して受信(取得)する毎に、受信した画像と位置に関する情報とを対応付けた状態で例えば図4に示す取得データに記憶する。取得データは、撮像装置20が撮像した画像毎に、画像が撮像されたときの位置センサの位置(本実施形態では、ロボットアーム10の先端部の位置でもある)に関する情報(例えば、通信装置Aの載置面上の所定位置を原点とした二次元座標等)が対応付けられた状態で記述されているデータである。
なお、CPU31は、撮像装置20が撮像した画像が動画で構成されている場合には、当該画像をいくつかのフレームに分割して、分割された各フレームを撮像した画像として取得データに記憶してもよい。
第1検出手段42は、所定のアプリケーションのアイコン(所定の対象)の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、撮像装置20によって撮像された画像(第1画像)内に当該アイコンが含まれていることを検出する機能を備える。ここで、所定のアプリケーションのアイコン(所定の対象)は、タッチスクリーンに表示されたアプリケーションのアイコンであってもよい。
第1検出手段42の機能は、例えば以下のように実現される。制御装置30のCPU31は、例えば、所定の対象と当該対象の撮像画像との対応関係を示すデータを学習用データとした機械学習を行ってもよい。ここで、学習用データの一例を図5に示す。図5に示す学習用データは、撮像画像毎に、撮像対象(図の例では、アプリケーション1のアイコン、アプリケーション2のアイコン、アプリケーション3のアイコン)が対応付けられた状態で記述されているデータである。これにより、機械学習の結果として、撮像画像と、撮像対象との関係を示す学習済モデルが構成される。この場合、CPU31は、例えば、第1取得手段41の機能に基づいて取得した画像を学習済モデルに入力することによって、当該画像に所定の対象(ここでは、「アプリケーション1のアイコン」、「アプリケーション2のアイコン」、「アプリケーション3のアイコン」の何れか)が含まれているか否かを検出することができる。
なお、機械学習には、例えば、ニューラルネットワーク(ディープラーニング)やサポートベクターマシン等の任意のアルゴリズムが用いられてもよい。また、学習用データに記憶される撮像画像は、撮像装置20によって撮像された画像であってもよいし、他の撮像装置によって撮像された画像であってもよい。
制御手段43は、撮像装置20によって撮像された画像(第1画像)内に所定のアプリケーションのアイコン(所定の対象)が含まれていることを検出した場合に、当該アイコンに対してタッチペンTを用いたタッチ動作(所定の動作)を行うようにロボットアーム10(動作機構)を制御する機能を備える。
また、制御手段43は、撮像装置20によって撮像された画像(第1画像)内に所定のアプリケーションのアイコン(所定の対象)が含まれていることを検出した場合に、当該所定のアプリケーションを実行するために当該アイコンにタッチするようにロボットアーム10を制御してもよい。
制御手段43の機能は、例えば以下のように実現される。制御装置30のCPU31は、例えば、第1取得手段41の機能に基づいて取得した画像内に所定のアプリケーション(例えば、アプリケーション1)のアイコンが含まれていることを第1検出手段42の機能に基づいて検出すると、当該アイコンに対してタッチペンTを用いたタッチ動作を行うようにロボットアーム10を制御する。ここで、図6(a),(b)を参照して、ロボットアーム10の制御方法の一例を説明する。図6(a)は、所定の対象(アプリケーション1のアイコン)を含む撮像画像の一例を示す図であり、図6(b)は、所定の動作(タッチペンTを用いたタッチ動作)を行う位置を所定の対象(アプリケーション1のアイコン)の位置に一致させるように動作機構(ロボットアーム10)を制御した場合の撮像画像の一例を示す図である。
先ず、図6(a)に示すように、第1取得手段41の機能に基づいて取得した画像内に所定のアプリケーション(例えば、アプリケーション1)のアイコン(図の例では、星形のアイコン)が含まれていることを第1検出手段42の機能に基づいて検出した場合を想定する。この場合、制御装置30のCPU31は、取得した画像において、所定のアプリケーションのアイコンの位置を示す点P1の座標(x1,y1)と、タッチペンTを用いたタッチ動作が行われる位置を示す点P2の座標(x2,y2)と、をもとめる。次に、CPU31は、画像内の点P1,P2間のX方向及びY方向の距離をもとめ、もとめた距離を例えば通信装置Aの載置面上の距離に変換する。そして、CPU31は、ロボットアーム10の先端部が、変換された距離に応じて現在位置(位置センサによって検出された位置)からアイコン上まで移動するように、ロボットアーム10を制御する。これにより、図6(b)に示すように、タッチペンTを用いたタッチ動作を行う位置(図の例では、点P2の位置)を、所定のアプリケーションのアイコンの位置(図の例では、点P1の位置)に一致させることができる。
そして、CPU31は、タッチペンTが下方に移動するようにロボットアーム10を制御する。このようにして、タッチペンTを、通信装置Aのタッチスクリーンに表示された所定のアプリケーションのアイコンにタッチさせることができ、当該アプリケーションを実行することができる。なお、CPU31は、タッチペンTの下方への移動距離が所定値に達した場合、タッチペンTを当該所定値だけ上方に移動させる(つまり、元の位置に戻る)ようにロボットアーム10を制御してもよい。
本実施形態の制御手段43の機能によれば、例えば図7(a),(b)に示すように、所定のアプリケーション(例えば、アプリケーション1)のアイコンが画像内及び/又は通信装置Aの載置面上の様々な位置に存在する場合であっても、画像内のアイコンの位置を示す点P2,P3の各々の座標((x3,y3)及び(x4,y4))をもとめることによって、タッチペンTを用いたタッチ動作を行う位置を、所定のアプリケーションのアイコンの位置に一致させることができる。
第2取得手段44は、所定のアプリケーションのアイコン(所定の対象)に対してタッチペンTを用いたタッチ動作(所定の動作)が行われた場合に、所定のアプリケーションのアイコンの位置を撮像範囲に含む画像(第2画像)であって、撮像装置20によって撮像された画像を取得する機能を備える。
第2取得手段44の機能は、例えば以下のように実現される。制御装置30のCPU31は、例えば、制御手段43の機能に基づいて、タッチペンTを用いたタッチ動作を行うようにロボットアーム10を制御した場合に、所定の制御信号を撮像装置20に送信することによって撮像装置20に撮像処理を行わせてもよい。一方、撮像装置20は、制御装置30から制御信号を受信すると、撮像処理を行う。ここで、撮像装置20による撮像範囲は、例えば図6(b)に示すように、所定のアプリケーション(アプリケーション1)のアイコンの位置(つまり、タッチペンTを用いたタッチ動作を行う位置)を含むことになる。そして、撮像装置20は、撮像した画像を制御装置30に送信する。制御装置30のCPU31は、撮像装置20が撮像した画像を、通信インタフェース部38を介して受信(取得)すると、受信した画像を例えばRAM33又は記憶装置34に記憶してもよい。
第2検出手段45は、撮像装置20によって撮像された画像(第2画像)に基づいて所定の異常が発生したことを検出する機能を備える。
第2検出手段45の機能は、例えば以下のように実現される。制御装置30のCPU31は、例えば、第2取得手段44の機能に基づいて、撮像装置20によって撮像された画像を例えばRAM33又は記憶装置34に記憶すると、記憶した画像を用いて所定の異常が発生したか否かを検出してもよい。ここで、本実施形態において、所定の異常とは、タッチペンTでタッチされたアイコンに対応する所定のアプリケーションが正常に実行されていない(例えば、アプリケーションが起動していない、アプリケーションの起動後にエラーが表示される、アプリケーションの起動後に画面が動かない等)ことであってもよい。
CPU31は、例えば、当該アプリケーションが正常に実行されている状態の画面を含む画像と、例えばRAM33又は記憶装置34に記憶された画像との画像類似度を、例えばテンプレートマッチング等の周知の技術を用いてもとめ、もとめられた画像類似度の値に基づいて、所定のアプリケーションが正常に実行されているか否かを判別してもよい。例えば、画像類似度が所定値以上の場合、所定のアプリケーションが正常に実行されていると判別されてもよい。そして、CPU31は、所定のアプリケーションが正常に実行されていないと判別した場合に、所定の異常が発生したことを検出してもよい。
また、CPU31は、例えば、所定のアプリケーションが正常に実行されている状態の画面を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、例えばRAM33又は記憶装置34に記憶された画像内に当該アプリケーションが正常に実行されている状態の画面が含まれていると判別した場合に、当該アプリケーションが正常に実行されていると判別してもよい。
提示手段46は、所定の異常が発生したことを検出した場合に、異常の発生に関する情報を提示する機能を備える。
提示手段46の機能は、例えば以下のように実現される。制御装置30のCPU31は、例えば、第2検出手段45の機能に基づいて所定の異常が発生したことを検出すると、異常の発生に関する情報を例えば表示部36に表示してもよい。ここで、異常の発生に関する情報とは、例えば、異常が発生したことを示すテキストデータで構成されてもよいし、異常が発生したことを示す音声データや画像データ等で構成されてもよい。また、異常の発生に関する情報には、例えば、第2取得手段44の機能に基づいて取得した画像が含まれてもよい。
なお、提示手段46は、所定の異常が発生したことを検出できない場合(つまり、正常な場合)に、正常であることを示す情報を提示してもよい。この場合、制御装置30のCPU31は、第2検出手段45の機能に基づいて所定の異常が発生したことを検出できない場合、正常であることを示す情報を例えば表示部36に表示してもよい。ここで、正常であることを示す情報とは、例えば、正常であることを示すテキストデータで構成されてもよいし、正常であることを示す音声データや画像データ等で構成されてもよい。また、正常であることを示す情報には、例えば、第2取得手段44の機能に基づいて取得した画像が含まれてもよい。
また、CPU31は、異常の発生に関する情報及び/又は正常であることを示す情報を、例えばインターネットやLAN(Local Area Network)等の通信ネットワークを介して制御装置30に接続された他のコンピュータ(例えば、サーバ等)に送信してもよい。ここで、CPU31は、所定の異常が発生したことを検出した場合に、異常の発生に関する情報を直ちに他のコンピュータに送信してもよく、所定の異常が発生したことを検出できない場合(つまり、正常な場合)に、正常であることを示す情報を例えば所定時間(例えば1時間)毎にまとめて他のコンピュータに送信してもよい。
(4)本実施形態の制御システムの主要な処理のフロー
次に、本実施形態の制御システムにより行われる主要な処理のフローの一例について、図8のフローチャートを参照して説明する。
先ず、撮像装置20は、所定時間(例えば、5秒等)経過毎に撮像処理を行い、撮像した画像を制御装置30に送信する。また、ロボットアーム10に設けられた位置センサは、所定時間(例えば、5秒等)経過毎に位置検出を行い、検出した位置に関する情報を制御装置30に送信する。一方、制御装置30のCPU31は、撮像装置20が撮像した画像(第1画像)と、位置センサが検出した位置に関する情報とを、通信インタフェース部38を介して受信(取得)すると(ステップS100)、受信した画像と位置に関する情報とを対応付けた状態で例えば取得データに記憶する。
次に、制御装置30のCPU31は、撮像装置20によって撮像された画像(第1画像)内に所定のアプリケーションのアイコン(所定の対象)が含まれている否かを判別する(ステップS102)。ここで、CPU31は、所定のアプリケーションのアイコンの撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、判別処理を行う。
次いで、制御装置30のCPU31は、撮像装置20によって撮像された画像(第1画像)内に所定のアプリケーションのアイコン(所定の対象)が含まれていることを検出すると(ステップS102:YES)、当該アイコンに対してタッチペンTを用いたタッチ動作(所定の動作)を行うようにロボットアーム10(動作機構)を制御する(ステップS104)。
なお、CPU31は、ステップS102の処理において、画像内に所定のアプリケーションのアイコンが含まれていないと判別した場合(ステップS102:NO)、例えば、当該アイコンを探すために、ロボットアーム10の先端部を所定距離だけ移動させた後に、ステップS100の処理に移行してもよい。
次に、制御装置30のCPU31は、所定のアプリケーションのアイコン(所定の対象)の位置を撮像範囲に含む画像(第2画像)であって、撮像装置20によって撮像された画像を取得する(ステップS106)。
また、制御装置30のCPU31は、ステップS106において取得した画像(第2画像)に基づいて所定の異常が発生したか否かを判別する(ステップS108)。そして、CPU31は、所定の異常が発生したことを検出した場合に(ステップS108:YES)、異常の発生に関する情報を提示する(ステップS110)。なお、CPU31は、ステップS108において、所定の異常が発生していないと判別した場合(ステップS108:NO)、処理を終了してもよい。
上述したように、本実施形態の制御システム、制御方法、プログラムによれば、撮像装置20によって撮像された第1画像が取得されると、第1画像に含まれるアイコンが学習済モデルに基づいて検出され、検出されたアイコンに対してタッチ動作を行うようにロボットアーム10が制御されるので、例えば、第1画像にアイコンが含まれている場合には、第1画像内のアイコンの位置に基づいて、ロボットアーム10がタッチ動作を行う位置をアイコンの位置に一致させた上でタッチ動作を行うようにロボットアーム10を制御することが可能になる。これにより、第1画像にアイコンが含まれている場合には、アイコンの位置に拘わらずにアイコンに対してタッチ動作を行うことができるので、アイコンの位置が異なる場合や状況に応じて変わる場合であっても、アイコンに対するタッチ動作を正確且つ自動的に行うことができる。
また、本実施形態の制御システム、制御方法、プログラムによれば、所定のアプリケーションのアイコンに対してタッチペンTを用いたタッチ動作が行われた場合に撮像された第2画像に基づいて所定の異常が発生したことが検出されると、異常の発生に関する情報が提示されるので、所定のアプリケーションのアイコンに対してタッチペンTを用いたタッチ動作を行った場合に異常が発生したことを容易に認識することができる。
さらに、本実施形態の制御システム、制御方法、プログラムによれば、所定のアプリケーションを実行するために、通信装置Aのタッチスクリーンに表示された当該アプリケーションのアイコンをタッチするという動作を、ロボットアーム10を用いて正確且つ自動的に行うことができる。
さらにまた、本実施形態の制御システム、制御方法、プログラムによれば、所定の対象に対する所定の動作を、ロボットアーム10を用いて正確且つ自動的に行うことができる。
なお、本発明のプログラムは、コンピュータで読み取り可能な記憶媒体に記憶されていてもよい。このプログラムを記録した記憶媒体は、図2に示す制御装置30のROM32、RAM33又は記憶装置34であってもよい。また、例えばCD−ROMドライブ等のプログラム読取装置に挿入されることで読み取り可能なCD−ROM等であってもよい。さらに、記憶媒体は、磁気テープ、カセットテープ、フレキシブルディスク、MO/MD/DVD等であってもよいし、半導体メモリであってもよい。
以上説明した実施形態及び変形例は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施形態及び変形例に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
上記実施形態では、所定の対象が1つのアイコンである場合を一例として説明したが、所定の対象は複数であってもよい。ここで、複数の所定の対象は、全て同じ対象であってもよいし、異なる対象であってもよい。この場合、制御装置30のCPU31は、第1検出手段42の機能として、第1画像内に複数の所定の対象(例えば、所定のアプリケーションの第1アイコン、第2アイコン及び第3アイコン等であってもよいし、アプリケーションAのアイコン、アプリケーションBのアイコン及びアプリケーションCのアイコン等であってもよい)が含まれていることを検出してもよい。
また、制御装置30のCPU31は、制御手段43の機能として、第1画像内に複数の所定の対象(例えば、アプリケーションAのアイコン、アプリケーションBのアイコン及びアプリケーションCのアイコン等)が含まれていることを検出した場合に、複数の所定の対象のうち少なくとも1つに対して所定の動作(例えば、タッチ動作)を行うようにロボットアーム10を制御してもよい。ここで、複数の所定の対象に対して所定の動作を行う順序は、例えば、複数の所定の対象の各々の種類に応じて予め決められていてもよいし(例えば、最初にアプリケーションAのアイコン、次にアプリケーションBのアイコン、その次にアプリケーションCのアイコン等)、第1画像内の複数の所定の対象の各々の位置に応じて動的に決められてもよい(例えば、タッチペンTを用いたタッチ動作を行う位置から近い位置に存在するアイコン順等)。
さらに、制御装置30のCPU31は、第2検出手段45の機能として、撮像装置20によって撮像された画像(第2画像)内で検出されたアイコン(所定の対象)に基づいて所定の異常が発生したことを検出してもよい。例えば、所定のアプリケーションが正常に実行される場合には、通信装置Aのタッチスクリーンに表示された第1アイコンに対してタッチ動作が行われると第2アイコンを含む画面がタッチスクリーンに表示され、第2アイコンに対してタッチ動作が行われると第3アイコンを含む画面がタッチスクリーンに表示されるようになっている場合を想定する。ここで、CPU31は、例えば、第1アイコンに対してタッチ動作が行われた後に撮像された画像内で第2アイコンを検出できない場合や、第2アイコンではなく第3アイコンを検出した場合等には、所定のアプリケーションが正常に実行されていないと判別して、所定の異常が発生したことを検出してもよい。
上記実施形態では、1つの通信装置Aのタッチスクリーンに表示されたアイコン(所定の対象)に対してタッチ動作(所定の動作)を行う場合を一例として説明したが、例えば、複数の通信装置の各々のタッチスクリーンに表示された1つ以上のアイコン(同じアイコンであってもよいし、異なるアイコンであってもよい)に対してタッチ動作を行ってもよい。この場合、制御装置30のCPU31は、制御手段43の機能として、第1画像内に複数の通信装置のうち少なくとも1つの通信装置のタッチスクリーンに表示されたアイコンが含まれていることを検出した場合に、複数の通信装置のうち少なくとも1つの通信装置のタッチスクリーンに表示されたアイコンに対してタッチ動作を行うようにロボットアーム10を制御してもよい。ここで、第1画像内に複数のアイコンが含まれている場合に、各アイコンに対してタッチ動作を行う順序は、例えば、アイコンの種類に応じて予め決められていてもよいし、第1画像内の各アイコンの位置に応じて動的に決められてもよい(例えば、タッチペンTを用いたタッチ動作を行う位置から近い位置に存在するアイコン順等)。
上述した実施形態では、タッチペンTを用いて、通信装置Aのタッチスクリーンに表示された所定のアプリケーションのアイコンをタッチする動作を行うようにロボットアーム10を制御する場合を一例として説明したが、例えば、ボールペンや万年筆等の筆記用具を用いて、所定の筆記欄(所定の対象)に所定の文字(例えば署名等)を筆記する動作(所定の動作)を行うようにロボットアーム10を制御してもよいし、スタンプや印鑑等を用いて、所定の押印欄(所定の対象)に押印する動作(所定の動作)を行うようにロボットアーム10を制御してもよい。この場合、例えば、所定の動作を行うようにロボットアーム10を制御した後に撮像された画像に基づいて、所定の異常(例えば、所定の文字が筆記されていない、所定の文字が薄い、所定の文字の一部が欠けている、スタンプや印鑑が押印されていない等)が発生したことが検出されてもよい。
また、上述した実施形態では、制御装置30によって、第1取得手段41、第1検出手段42、制御手段43、第2取得手段44、第2検出手段45及び提示手段46の各機能を実現する構成としたが、この構成に限られない。例えば、これらの全ての手段をロボットアーム10又は撮像装置20によって実現する構成としてもよいし、少なくとも一部の手段をロボットアーム10又は撮像装置20によって実現する構成としてもよい。
上述したような本発明の制御システム、制御方法、プログラムは、所定の対象の位置が異なる場合であっても、当該対象に対する所定の動作を正確且つ自動的に行うことができ、例えば、ロボット等の動作機構を用いた自動制御システム等に好適に利用することができるので、その産業上の利用可能性は極めて大きい。
10…ロボットアーム
20…撮像装置
30…制御装置
41…第1取得手段
42…第1検出手段
43…制御手段
44…第2取得手段
45…第2検出手段
46…提示手段
A…通信装置

Claims (6)

  1. 所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得する第1取得手段と、
    所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、前記第1画像内に前記所定の対象が含まれていることを検出する第1検出手段と、
    前記第1画像内に前記所定の対象が含まれていることを検出した場合に、前記所定の対象に対して前記所定の動作を行うように前記動作機構を制御する制御手段と、
    を備える制御システム。
  2. 前記所定の対象に対して前記所定の動作が行われた場合に、前記所定の対象の位置を撮像範囲に含む第2画像であって、前記撮像装置によって撮像された第2画像を取得する第2取得手段と、
    前記第2画像に基づいて所定の異常が発生したことを検出する第2検出手段と、
    前記所定の異常が発生したことを検出した場合に、異常の発生に関する情報を提示する提示手段と、を備える請求項1に記載の制御システム。
  3. 前記所定の対象は、タッチスクリーンに表示されたアプリケーションのアイコンであって、
    前記制御手段は、前記第1画像内に前記アイコンが含まれていることを検出した場合に、前記アプリケーションを実行するために前記アイコンにタッチするように前記動作機構を制御する、請求項1又は2に記載の制御システム。
  4. 前記動作機構はロボットアームである、請求項1〜3の何れかに記載の制御システム。
  5. コンピュータに、
    所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得するステップと、
    所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、前記第1画像内に前記所定の対象が含まれていることを検出するステップと、
    前記第1画像内に前記所定の対象が含まれていることを検出した場合に、前記所定の対象に対して前記所定の動作を行うように前記動作機構を制御するステップと、
    の各ステップを実行させる、制御方法。
  6. コンピュータに、
    所定の動作を行う動作機構の動作位置を撮像範囲に含む第1画像であって、撮像装置によって撮像された第1画像を取得する機能と、
    所定の対象の撮像画像を学習用データとして用いた機械学習に基づく学習済モデルに基づいて、前記第1画像内に前記所定の対象が含まれていることを検出する機能と、
    前記第1画像内に前記所定の対象が含まれていることを検出した場合に、前記所定の対象に対して前記所定の動作を行うように前記動作機構を制御する機能と、
    を実現させるためのプログラム。
JP2019056622A 2019-03-25 2019-03-25 制御システム、制御方法、プログラム Active JP6840402B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019056622A JP6840402B2 (ja) 2019-03-25 2019-03-25 制御システム、制御方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019056622A JP6840402B2 (ja) 2019-03-25 2019-03-25 制御システム、制御方法、プログラム

Publications (2)

Publication Number Publication Date
JP2020160562A true JP2020160562A (ja) 2020-10-01
JP6840402B2 JP6840402B2 (ja) 2021-03-10

Family

ID=72643325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019056622A Active JP6840402B2 (ja) 2019-03-25 2019-03-25 制御システム、制御方法、プログラム

Country Status (1)

Country Link
JP (1) JP6840402B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078825A (ja) * 2011-10-04 2013-05-02 Yaskawa Electric Corp ロボット装置、ロボットシステムおよび被加工物の製造方法
JP2018039059A (ja) * 2016-09-05 2018-03-15 国立大学法人信州大学 把持装置、把持方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078825A (ja) * 2011-10-04 2013-05-02 Yaskawa Electric Corp ロボット装置、ロボットシステムおよび被加工物の製造方法
JP2018039059A (ja) * 2016-09-05 2018-03-15 国立大学法人信州大学 把持装置、把持方法、及びプログラム

Also Published As

Publication number Publication date
JP6840402B2 (ja) 2021-03-10

Similar Documents

Publication Publication Date Title
US8040320B2 (en) Input device and method of operation thereof
JP6039343B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP5203797B2 (ja) 情報処理装置及び情報処理装置の表示情報編集方法
JP6135239B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
US8816964B2 (en) Sensor-augmented, gesture-enabled keyboard and associated apparatus and computer-readable storage medium
WO2014045953A1 (ja) 情報処理装置および方法、並びにプログラム
JP5604279B2 (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20080259029A1 (en) Input Device Having the Function of Recognizing Hybrid Coordinates and Operating Method of the Same
JP2010055510A (ja) 情報処理装置及び情報処理方法
JP6349800B2 (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20120188178A1 (en) Information processing apparatus and control method of the same
JP2022103189A (ja) 作業現場監視装置、作業現場監視システム、作業現場監視方法およびプログラム
KR20130091874A (ko) 필기 인식을 위한 필기 입력 가이드 장치 및 방법
JP2015148981A (ja) データ処理装置
US7999957B2 (en) Input position setting method, input position setting device, input position setting program, and information input system
JP6840402B2 (ja) 制御システム、制御方法、プログラム
JP2014182717A (ja) 情報処理装置、情報処理システム及びプログラム
CN110007748B (zh) 终端的控制方法、处理装置、存储介质及终端
JP2013077180A (ja) 認識装置およびその制御方法
KR102569170B1 (ko) 사용자 입력이 유지되는 시간에 기반하여 사용자 입력을 처리하는 방법 및 장치
JP6287079B2 (ja) 検品支援装置、検品支援システム及びプログラム
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
JP6935887B2 (ja) 端末操作システム、および、端末操作プログラム
JP2019109571A (ja) 表示装置、及び入力装置
JP5943743B2 (ja) 表示制御装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200717

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210202

R150 Certificate of patent or registration of utility model

Ref document number: 6840402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250