JP2022087045A - State determination system, state determination method, and state determination program - Google Patents
State determination system, state determination method, and state determination program Download PDFInfo
- Publication number
- JP2022087045A JP2022087045A JP2021189744A JP2021189744A JP2022087045A JP 2022087045 A JP2022087045 A JP 2022087045A JP 2021189744 A JP2021189744 A JP 2021189744A JP 2021189744 A JP2021189744 A JP 2021189744A JP 2022087045 A JP2022087045 A JP 2022087045A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- inspection object
- determination
- force
- state determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 188
- 238000007689 inspection Methods 0.000 claims abstract description 337
- 230000007246 mechanism Effects 0.000 claims abstract description 121
- 230000033001 locomotion Effects 0.000 claims abstract description 61
- 230000006870 function Effects 0.000 claims description 197
- 238000010801 machine learning Methods 0.000 claims description 136
- 238000006243 chemical reaction Methods 0.000 claims description 96
- 230000004044 response Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 165
- 238000012545 processing Methods 0.000 description 105
- 238000003860 storage Methods 0.000 description 103
- 230000035807 sensation Effects 0.000 description 90
- 238000007726 management method Methods 0.000 description 58
- 230000007613 environmental effect Effects 0.000 description 41
- 238000010586 diagram Methods 0.000 description 29
- 238000004806 packaging method and process Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 22
- 230000005540 biological transmission Effects 0.000 description 21
- 230000009466 transformation Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 12
- 238000000605 extraction Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 238000010276 construction Methods 0.000 description 9
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 8
- 230000009471 action Effects 0.000 description 8
- 235000013305 food Nutrition 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 8
- 239000003570 air Substances 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000000844 transformation Methods 0.000 description 6
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 4
- 229910002092 carbon dioxide Inorganic materials 0.000 description 4
- 239000001569 carbon dioxide Substances 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 229910001873 dinitrogen Inorganic materials 0.000 description 4
- 239000007789 gas Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 235000013606 potato chips Nutrition 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000013643 reference control Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000012080 ambient air Substances 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003647 oxidation Effects 0.000 description 1
- 238000007254 oxidation reaction Methods 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、状態判定システム、状態判定方法、及び状態判定プログラムに関する。 The present invention relates to a state determination system, a state determination method, and a state determination program.
従来、様々な物品を対象として、破損に関する検査が行われている。例えば、食品等の内容物を包装する包装容器を対象として破損に関する検査を行うことにより、包装容器の空気漏れ等を、製品が消費者のもとに届く前に発見でき、製品としての品質を保証することが可能となる。 Conventionally, various articles have been inspected for damage. For example, by inspecting packaging containers for packaging the contents of foods and the like for damage, air leaks in the packaging containers can be detected before the product reaches the consumer, and the quality of the product can be improved. It becomes possible to guarantee.
このような包装容器等を対象とした検査についての技術の一例が、特許文献1に開示されている。特許文献1に開示の技術では、内容物を包装後の包装容器に対して、重量や温度を測定するセンサや、電磁波等により異物の混入を測定するセンサといった様々なセンサを用いることにより、多くの観点から検査を行うことができる。
しかしながら、特許文献1に開示されているような検査を行うためには、様々なセンサのみならず、さらに検査用のコンベアといった大掛かりな設備が必要となる。この点、工場等での出荷段階での検査では、製品毎に大掛かりな設備を設置することは比較的容易である。これに対して、輸送途中で様々な製品についての破損を発見する必要がある、物流センターや小売店舗等での検査では、大掛かりな設備を設置することは現実的ではない。
However, in order to perform the inspection as disclosed in
このような事情から、物流センター等では、仕分けやピッキングのタイミングで、人手による検査が行われる。しかしながら、人手による検査では、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することになる。このように、作業者の主観に依存して検査が行われた場合、その検査における判断の根拠を、客観的に説明することは困難である。また、作業者の主観に依存した検査では、例えば、作業者毎の熟練度の相違や、作業者の体調といった要因が影響して、検査精度が安定しないおそれもある。このように、検査精度が安定しない場合、検査結果に誤りが生じ、包装容器が破損しているにも関わらず消費者のもとに届くようなこととなり、最終的に、消費者からのクレームの発生等の問題が生じることになる。 Under these circumstances, at distribution centers and the like, manual inspections are carried out at the timing of sorting and picking. However, in the manual inspection, the inspection accuracy depends on the personal feeling (that is, the subjectivity of the worker). As described above, when the inspection is performed depending on the subjectivity of the worker, it is difficult to objectively explain the basis of the judgment in the inspection. Further, in the inspection depending on the subjectivity of the worker, the inspection accuracy may not be stable due to factors such as the difference in the skill level of each worker and the physical condition of the worker. In this way, if the inspection accuracy is not stable, the inspection result will be incorrect, and the packaging container will be delivered to the consumer even though it is damaged, and finally, the complaint from the consumer. Will occur.
本発明は、このような状況に鑑みてなされたものである。そして、本発明の課題は、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することである。 The present invention has been made in view of such a situation. An object of the present invention is to realize an inspection with stable accuracy based on an objective index when inspecting for damage.
上記課題を解決するため、本発明の一実施形態に係る状態判定システムは、
操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御手段と、
前記動作制御手段が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定手段と、
前記判定手段の判定結果を前記ユーザに対して通知する通知手段と、
を備えることを特徴とする。
In order to solve the above problems, the state determination system according to the embodiment of the present invention is
The actuator on the operation mechanism side that operates the operation mechanism, and
The actuator on the gripping mechanism side that operates the gripping mechanism,
By driving the gripping mechanism side actuator in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the inspection target, and the inspection target input to the gripping mechanism. An operation control means for performing an operation control in which the operation mechanism controls an operation of transmitting the reaction force to the user by driving the actuator on the operation mechanism side in response to a reaction force from an object.
A determination means for determining damage to the inspection object based on the control parameters used by the operation control means in the operation control, and a determination means.
A notification means for notifying the user of the determination result of the determination means, and
It is characterized by having.
本発明によれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。 According to the present invention, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
以下、添付の図面を参照して本発明の実施形態の一例である第1実施形態と第2実施形態のそれぞれについて説明する。 Hereinafter, each of the first embodiment and the second embodiment, which are examples of the embodiments of the present invention, will be described with reference to the accompanying drawings.
<第1実施形態>
[システム構成]
図1は、本実施形態に係る状態判定システムSの全体構成を示すブロック図である。図1に示すように、状態判定システムSは、状態判定装置1、ウェアラブル端末2、及びサーバ装置3を含む。また、図中には、ユーザU、ネットワークN、及び検査対象物4も図示する。
<First Embodiment>
[System configuration]
FIG. 1 is a block diagram showing an overall configuration of a state determination system S according to the present embodiment. As shown in FIG. 1, the state determination system S includes a
これら状態判定装置1、ウェアラブル端末2、及びサーバ装置3は、それぞれ相互に通信可能に接続される。これら各装置の間での通信は、任意の通信方式に準拠して行われてよく、その通信方式は特に限定されない。また、これら各装置の間での通信は、無線通信であってもよく、有線通信であってもよく、あるいは、有線通信と無線通信の組み合わせであってもよい。加えて、これら各装置の間での通信は、装置間で直接行われてもよいし、ネットワークNや、図示しない中継装置を介して行われてもよい。ネットワークNは、例えば、LAN(Local Area Network)や、インターネットや、携帯電話網といったネットワークにより実現される。
The
状態判定装置1は、ユーザUによる検査対象物4の破損に関する検査を補助する装置である。状態判定装置1は、ユーザUの操作に基づいて、検査対象物4を把持する把持装置としての機能を実現すると共に、その把持において用いられた力触覚に関する制御パラメータに基づいて、検査対象物4が破損しているか否かを判定する。
以下では、説明のための一例として、状態判定装置1は、ユーザUによる近傍からの操作、又は遠隔からの操作(すなわち、テレオペレーション)が可能なロボットマニピュレーターで実現されることを想定する。より詳細には、状態判定装置1は、検査対象物4を把持するための把持機構を含むと共に、ユーザUが携帯して使用可能な可搬型のリーチャー(すなわち、マジックハンド)であることを想定する。このリーチャーとしての機能を実現するために、状態判定装置1は、ユーザUの操作を受け付ける操作機構55と、操作機構55をマスタ装置として動作させるためのマスタ側ユニット50と、検査対象物4を把持する把持機構65と、把持機構65をスレーブ装置として動作させるためのスレーブ側ユニット60と、これらの動作を統合的に制御する制御ユニット10とを含む。
The
In the following, as an example for explanation, it is assumed that the
状態判定装置1では、制御ユニット10を介して、マスタ側ユニット50と、スレーブ側ユニット60とが、相互に通信すると共に、制御ユニット10が備える動作制御部が動作の制御を行うことによって、一方がマスタ装置(ここでは、ユーザUの操作を受け付ける装置)として動作し、他方がスレーブ装置(ここでは、ロボットマニピュレーターとして検査対象物4を把持する装置)として動作する。この場合に、ユーザUは、スレーブ装置の動作を、直接又は動画等により観察しながらマスタ装置を操作することにより、近傍からの操作、又は遠隔操作を実現する。また、このユーザによる操作時には、状態判定装置1が備える制御ユニット10が動作の制御を行うことによって、マスタ装置の動作(ここでは、操作機構55が受け付けたユーザUによる操作)をスレーブ装置に伝達すると共に、スレーブ装置に対する物体からの反力(ここでは、把持機構65の把持に対する検査対象物4からの反力)の入力をマスタ装置にフィードバックする機能(すなわち、バイラテラル制御機能)が実現される。
In the
ここで、操作機構55の具体的な構成は特に限定されないが、例えば、ユーザUの手等による、握る、滑らせる(すなわち、スライドさせる)、捻る、あるいは押す等の、力触覚を伴う操作を受け付ける機構により実現することができる。また、同様に、把持機構65の具体的な構成は特に限定されないが、例えば、上述したようなユーザUの力触覚を伴う操作に応じて、検査対象物4を把持する部材が、開閉する、回転する、あるいは、昇降する等の力触覚を伴う把持を行う機構により実現することができる。
ただし、これら操作機構55及び把持機構65の構成は例示に過ぎず、ユーザUの操作における力触覚及び把持における力触覚を、制御パラメータとしてマスタ装置とスレーブ装置間で相互に伝達可能とする構成であればよい。すなわち、これら操作機構55及び把持機構65の具体的な構成は、上述の例示には特に限定されない。
Here, the specific configuration of the
However, the configurations of the
ウェアラブル端末2は、ユーザUに対して、検査対象物4の破損に関する検査を補助するための各種の情報(例えば、状態判定装置1による判定結果や、判定結果に対応した作業指示等)や、ユーザインタフェース等を通知する装置である。ウェアラブル端末2は、例えば、ユーザUの頭部に装着されて使用されるヘッドマウントディスプレイ(HMD:Head Mounted Display)により実現される。このようなヘッドマウントディスプレイでは、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)、あるいは、複合現実(MR:Mixed Reality)といった技術を利用して、ユーザUに対する通知を行うことが可能である。例えば、拡張現実の技術を利用する場合、透過型のディスプレイを介してユーザUが視認できる現実の景色と、透過型ディスプレイに表示される仮想現実(例えば、仮想的に生成された画像やテキスト等を含む)とを重畳して、ユーザUに対して通知をすることができる。
The
また、ウェアラブル端末2による通知は、このようなウェアラブル端末2が備えるディスプレイへの表示のみならず、ウェアラブル端末2が備えるスピーカからの音(音声や警告音等)の出力や、ウェアラブル端末2が備える警告灯の点滅等により実現することもできる。
なお、ウェアラブル端末2によるこれらの処理は、ウェアラブル端末2と、状態判定装置1と、サーバ装置3と、が通信を行い、これらが協働することによって実現される。
Further, the notification by the
It should be noted that these processes by the
サーバ装置3は、状態判定装置1と、ウェアラブル端末2とにより行われる処理に用いる情報を管理したり、画像認識により検査対象物4を識別したりするサーバである。なお。図中では、サーバ装置3を単一のサーバ装置として図示するが、例えば、クラウドサーバ等の形態で複数のサーバ装置によってサーバ装置3を実現するようにしてもよい。
The
検査対象物4は、ユーザUによる破損に関する検査の対象となる物品である。検査対象物4は、特に限定されないが、以下では説明のための一例として、検査対象物4は、食品(例えば、ポテトチップス等のお菓子)等を内容物として包装する包装容器であることを想定する。ここで、このような包装容器では、食品等の劣化(例えば、酸化)や、破損を防止するために、酸素に代えて二酸化炭素や窒素ガスが内容物として充填されている。本実施形態では、このような包装容器を検査対象物4として破損に関する検査を行うことにより、内容物である、二酸化炭素や窒素ガスの漏れ(いわゆる空気漏れ)を検出したり、食品等が流体のような場合に、この流体である食品等の漏れを検出したりすることができる。これにより、空気漏れ等に伴う内容物の劣化や内容物の流出を、製品が消費者のもとに届く前に発見でき、製品としての品質を保証することが可能となる。
The
次に、このような構成を有する状態判定システムSによる、検査対象物4の破損に関する検査を補助するための処理の概要について説明する。
まず、状態判定システムSは、ユーザUの操作に基づいて状態判定装置1の動作を制御(ここでは、バイラテラル制御機能による制御)することにより、状態判定装置1に検査対象物4を把持させる。また、状態判定システムSは、状態判定装置1の制御で用いた、力触覚に関する制御パラメータを取得する。さらに、状態判定システムSは、取得した力触覚に関する制御パラメータに基づいて、検査対象物の破損に関する判定をする。そして、状態判定システムSは、判定部114の判定結果をユーザに対して通知する。
Next, the outline of the process for assisting the inspection regarding the damage of the
First, the state determination system S controls the operation of the
このように、状態判定システムSは、検査対象物4を状態判定装置1で把持した際の力触覚に関する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, the state determination system S objectively determines the damage of the
That is, according to the state determination system S, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
[制御対象装置に対する動作制御]
次に、上述した状態判定システムSでの具体的な処理の説明の前提として、本実施形態における、制御対象装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、操作機構55、スレーブ側ユニット60、及び把持機構65)に対する動作制御の基本的原理について説明する。
[Operation control for controlled device]
Next, as a premise of the description of the specific processing in the above-mentioned state determination system S, the controlled target device (here, the
なお、人間の動作(すなわち、人間の身体的行為)は、1つの関節等の個別の「機能」が単独で、あるいは組み合わされて構成されるものである。
したがって、以下、本実施形態において、「動作」とは、人間の身体における部位の個別の「機能」を構成要素として実現される統合的な機能を表すものとする。例えば、状態判定装置1に対する操作を伴う動作(例えば、手によって状態判定装置1が備える操作機構55を操作させる動作)は、手の各指や手首、及びこれらに連結する腕や肩の関節等の機能を構成要素とする統合的な機能である。
It should be noted that human movements (that is, human physical actions) are composed of individual "functions" such as one joint alone or in combination.
Therefore, hereinafter, in the present embodiment, the "motion" refers to an integrated function realized by using individual "functions" of parts in the human body as components. For example, an operation that involves an operation on the state determination device 1 (for example, an operation that causes the
(基本的原理)
本実施形態における動作の制御の基本的原理は、どのような動作も力源と速度(位置)源及び動作を表す変換の三要素で数理的に表現できることから、変換及び逆変換により定義される変数群に対し、双対関係にある理想力源及び理想速度(位置)源より制御エネルギーを制御対象のシステムに供給することで、抽出した動作を構造化し、再構築あるいは拡張増幅し動作を可逆的に自動実現(再現)する、というものである。
(Basic principle)
The basic principle of motion control in this embodiment is defined by transformation and inverse transformation because any motion can be mathematically expressed by three elements of force source, velocity (position) source, and transformation representing motion. By supplying control energy to the controlled system from the ideal force source and ideal velocity (position) source that are in a dual relationship with respect to the variable group, the extracted motion is structured, reconstructed or expanded and amplified, and the motion is reversible. It is automatically realized (reproduced).
図2は、本実施形態における制御対象装置の動作の制御の基本的原理の概念を示す模式図である。
図2に示す基本的原理は、人間の動作を実現するために利用可能なアクチュエータ(ここでは、状態判定装置1が備える把持機構65を動作させるためのアクチュエータ)の制御則を表しており、アクチュエータの現在位置を入力として、位置(又は速度)あるいは力の少なくとも一方の領域における演算を行うことにより、アクチュエータの動作を決定するものである。
すなわち、本実施形態における制御対象装置の動作の制御の基本的原理は、制御対象システムCSと、機能別力・速度割当変換ブロックFTと、理想力源ブロックFCあるいは理想速度(位置)源ブロックPCの少なくとも1つと、逆変換ブロックIFTとを含む制御則として表される。
FIG. 2 is a schematic diagram showing the concept of the basic principle of controlling the operation of the controlled object device in the present embodiment.
The basic principle shown in FIG. 2 represents a control rule of an actuator that can be used to realize human movement (here, an actuator for operating the
That is, the basic principle of controlling the operation of the controlled target device in the present embodiment is the controlled target system CS, the force / speed allocation conversion block FT for each function, the ideal power source block FC, or the ideal speed (position) source block PC. It is expressed as a control rule including at least one of the above and the inverse conversion block IFT.
制御対象システムCSは、アクチュエータによって作動するロボット(ここでは、状態判定装置1)であり、加速度等に基づいてアクチュエータの制御を行う。ここで、制御対象システムCSは、人間の身体における1つ又は複数の部位の機能を実現するものであるが、その機能を実現するための制御則が適用されていれば、具体的な構成は必ずしも人間の身体を模した形態でなくてもよい。例えば、制御対象システムCSは、アクチュエータによってリンクに一次元のスライド動作を行わせるロボットとすることができる。 The controlled object system CS is a robot operated by an actuator (here, a state determination device 1), and controls the actuator based on acceleration or the like. Here, the controlled target system CS realizes the function of one or a plurality of parts in the human body, but if the control rule for realizing the function is applied, the specific configuration is It does not necessarily have to be a form that imitates the human body. For example, the controlled object system CS can be a robot that causes a link to perform a one-dimensional sliding motion by an actuator.
機能別力・速度割当変換ブロックFTは、制御対象システムCSの機能に応じて設定される速度(位置)及び力の領域への制御エネルギーの変換を定義するブロックである。具体的には、機能別力・速度割当変換ブロックFTでは、制御対象システムCSの機能の基準となる値(基準値)と、アクチュエータの現在位置とを入力とする座標変換が定義されている。この座標変換は、一般に、基準値及び現在速度(位置)を要素とする入力ベクトルを速度(位置)の制御目標値を算出するための速度(位置)からなる出力ベクトルに変換すると共に、基準値及び現在の力を要素とする入力ベクトルを力の制御目標値を算出するための力からなる出力ベクトルに変換するものである。具体的には、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(1)及び(2)のように一般化して表される。 The function-specific force / velocity allocation conversion block FT is a block that defines the conversion of control energy into a region of speed (position) and force set according to the function of the controlled target system CS. Specifically, in the function-specific force / velocity allocation conversion block FT, coordinate conversion is defined in which a reference value (reference value) of the function of the controlled target system CS and the current position of the actuator are input. In general, this coordinate conversion converts an input vector having a reference value and a current velocity (position) as elements into an output vector consisting of a velocity (position) for calculating a control target value of the velocity (position), and also converts the reference value. And the input vector whose element is the current force is converted into the output vector consisting of the force for calculating the control target value of the force. Specifically, the coordinate conversion in the function-specific force / velocity allocation conversion block FT is expressed in a generalized manner as in the following equations (1) and (2).
ただし、式(1)において、x’1~x’n(nは1以上の整数)は速度の状態値を導出するための速度ベクトルであり、x’a~x’m(mは1以上の整数)は、基準値及びアクチュエータの作用に基づく速度(アクチュエータの移動子の速度又はアクチュエータが移動させる対象物の速度)を要素とするベクトル、h1a~hnmは機能を表す変換行列の要素である。また、式(2)において、f’’1~f’’n(nは1以上の整数)は力の状態値を導出するための力ベクトルであり、f’’a~f’’m(mは1以上の整数)は、基準値及びアクチュエータの作用に基づく力(アクチュエータの移動子の力又はアクチュエータが移動させる対象物の力)を要素とするベクトルである。 However, in the equation ( 1 ), x'1 to x'n ( n is an integer of 1 or more) is a velocity vector for deriving the state value of the velocity, and x'a to x'm ( m is 1 or more). (Integer) is a vector whose element is the velocity based on the reference value and the action of the actuator (the velocity of the mover of the actuator or the velocity of the object moved by the actuator), and h 1a to h nm is an element of the transformation matrix representing the function. Is. Further, in the equation (2), f''1 to f''n ( n is an integer of 1 or more) is a force vector for deriving the state value of the force, and f''a to f''m (n). m is an integer of 1 or more) is a vector whose elements are the reference value and the force based on the action of the actuator (the force of the mover of the actuator or the force of the object moved by the actuator).
機能別力・速度割当変換ブロックFTにおける座標変換を、実現する機能に応じて設定することにより、各種動作を実現したり、スケーリングを伴う動作の再現を行ったりすることができる。
すなわち、本実施形態における制御対象装置の動作の制御の基本的原理では、機能別力・速度割当変換ブロックFTにおいて、アクチュエータ単体の変数(実空間上の変数)を、実現する機能を表現するシステム全体の変数群(仮想空間上の変数)に“変換”し、速度(位置)の制御エネルギーと力の制御エネルギーとに制御エネルギーを割り当てる。そのため、アクチュエータ単体の変数(実空間上の変数)のまま制御を行う場合と比較して、速度(位置)の制御エネルギーと力の制御エネルギーとを独立に与えることが可能となっている。
By setting the coordinate conversion in the function-specific force / speed allocation conversion block FT according to the function to be realized, various operations can be realized and the operation accompanied by scaling can be reproduced.
That is, in the basic principle of controlling the operation of the controlled device in the present embodiment, the system expressing the function of realizing the variable (variable in the real space) of the actuator alone in the function-specific force / velocity allocation conversion block FT. It "converts" to the entire set of variables (variables in virtual space), and allocates control energy to the control energy of velocity (position) and the control energy of force. Therefore, it is possible to independently give the control energy of the velocity (position) and the control energy of the force as compared with the case where the control is performed with the variable (variable in the real space) of the actuator alone.
理想力源ブロックFCは、機能別力・速度割当変換ブロックFTによって定義された座標変換に従って、力の領域における演算を行うブロックである。理想力源ブロックFCにおいては、機能別力・速度割当変換ブロックFTによって定義された座標変換に基づく演算を行う際の力に関する目標値が設定されている。この目標値は、実現される機能に応じて固定値又は可変値として設定される。例えば、基準値が示す機能と同様の機能を実現する場合には、目標値としてゼロを設定したり、スケーリングを行う場合には、再現する機能を示す情報を拡大・縮小した値を設定したりできる。 The ideal force source block FC is a block that performs operations in the force region according to the coordinate transformation defined by the functional force / velocity allocation conversion conversion block FT. In the ideal force source block FC, a target value related to the force when performing a calculation based on the coordinate transformation defined by the functional force / velocity allocation conversion conversion block FT is set. This target value is set as a fixed value or a variable value depending on the function to be realized. For example, when realizing the same function as the reference value, set zero as the target value, and when scaling, set the enlarged / reduced value of the information indicating the function to be reproduced. can.
理想速度(位置)源ブロックPCは、機能別力・速度割当変換ブロックFTによって定義された座標変換に従って、速度(位置)の領域における演算を行うブロックである。理想速度(位置)源ブロックPCにおいては、機能別力・速度割当変換ブロックFTによって定義された座標変換に基づく演算を行う際の速度(位置)に関する目標値が設定されている。この目標値は、実現される機能に応じて固定値又は可変値として設定される。例えば、基準値が示す機能と同様の機能を実現する場合には、目標値としてゼロを設定したり、スケーリングを行う場合には、再現する機能を示す情報を拡大・縮小した値を設定したりできる。 The ideal velocity (position) source block PC is a block that performs an operation in the area of velocity (position) according to the coordinate transformation defined by the function-specific force / velocity allocation conversion block FT. In the ideal speed (position) source block PC, a target value regarding the speed (position) when performing a calculation based on the coordinate conversion defined by the function-specific force / speed allocation conversion block FT is set. This target value is set as a fixed value or a variable value depending on the function to be realized. For example, when realizing the same function as the reference value, set zero as the target value, and when scaling, set the enlarged / reduced value of the information indicating the function to be reproduced. can.
逆変換ブロックIFTは、速度(位置)及び力の領域の値を制御対象システムCSへの入力の領域の値(例えば電圧値又は電流値等)に変換するブロックである。
このような基本的原理により、制御対象システムCSのアクチュエータにおける位置の情報が機能別力・速度割当変換ブロックFTに入力されると、位置の情報に基づいて得られる速度(位置)及び力の情報を用いて、機能別力・速度割当変換ブロックFTにおいて、機能に応じた位置及び力の領域それぞれの制御則が適用される。そして、理想力源ブロックFCにおいて、機能に応じた力の演算が行われ、理想速度(位置)源ブロックPCにおいて、機能に応じた速度(位置)の演算が行われ、力及び速度(位置)それぞれに制御エネルギーが分配される。
The inverse conversion block IFT is a block that converts the values in the region of velocity (position) and force into the values in the region of input to the controlled system CS (for example, voltage value or current value).
Based on such a basic principle, when the position information in the actuator of the controlled target system CS is input to the function-specific force / speed allocation conversion block FT, the speed (position) and force information obtained based on the position information is obtained. In the function-specific force / velocity allocation conversion block FT, the control rules for each of the position and force regions according to the function are applied. Then, in the ideal power source block FC, the force is calculated according to the function, and in the ideal speed (position) source block PC, the speed (position) is calculated according to the function, and the force and the speed (position) are calculated. Control energy is distributed to each.
理想力源ブロックFC及び理想速度(位置)源ブロックPCにおける演算結果は、制御対象システムCSの制御目標を示す情報となり、これらの演算結果が逆変換ブロックIFTにおいてアクチュエータの入力値とされて、制御対象システムCSに入力される。
その結果、制御対象システムCSのアクチュエータは、機能別力・速度割当変換ブロックFTによって定義された機能に従う動作を実行し、目的とするロボットの動作が実現される。
すなわち、本実施形態においては、ロボット(ここでは、状態判定装置1)によって所定の行為時の人間の動作をより適切に実現することが可能となる。
The calculation results in the ideal force source block FC and the ideal speed (position) source block PC are information indicating the control target of the controlled target system CS, and these calculation results are used as input values of the actuator in the inverse conversion block IFT for control. It is input to the target system CS.
As a result, the actuator of the controlled target system CS executes the operation according to the function defined by the function-specific force / speed allocation conversion block FT, and the target robot operation is realized.
That is, in the present embodiment, the robot (here, the state determination device 1) can more appropriately realize the human movement at the time of a predetermined action.
(定義される機能例)
次に、機能別力・速度割当変換ブロックFTによって定義される機能の具体例について説明する。
機能別力・速度割当変換ブロックFTでは、入力されたアクチュエータの現在位置に基づいて得られる速度(位置)及び力を対象とした座標変換(実現する機能に対応した実空間から仮想空間への変換)が定義されている。
機能別力・速度割当変換ブロックFTでは、このような現在位置から速度(位置)及び力と、機能の基準値としての速度(位置)及び力とを入力として、速度(位置)及び力それぞれについての制御則が加速度次元において適用される。
すなわち、アクチュエータにおける力は質量と加速度との積で表され、アクチュエータにおける速度(位置)は加速度の積分によって表される。そのため、加速度の領域を介して、速度(位置)及び力を制御することで、アクチュエータの現在位置を取得して、目的とする機能を実現することができる。
(Example of defined function)
Next, a specific example of the function defined by the force / speed allocation conversion block FT for each function will be described.
In the function-specific force / velocity allocation conversion block FT, the speed (position) obtained based on the current position of the input actuator and the coordinate conversion targeting the force (conversion from real space to virtual space corresponding to the realized function). ) Is defined.
In the function-specific force / velocity allocation conversion block FT, the velocity (position) and force from the current position and the velocity (position) and force as the reference value of the function are input, and the velocity (position) and force are respectively. The control law of is applied in the acceleration dimension.
That is, the force in the actuator is represented by the product of mass and acceleration, and the velocity (position) in the actuator is represented by the integral of acceleration. Therefore, by controlling the velocity (position) and the force through the region of acceleration, the current position of the actuator can be acquired and the desired function can be realized.
以下、各種機能の具体的な例を説明する。
(力・触覚伝達機能)
図3は、機能別力・速度割当変換ブロックFTにおいて力・触覚伝達機能が定義された場合の制御の概念を示す模式図である。また、図4は、力・触覚伝達機能が適用されるマスタ装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、及び操作機構55)及びスレーブ装置(ここでは、状態判定装置1が備える、状態判定装置1が備える、スレーブ側ユニット60、及び把持機構65)を含むマスタ・スレーブシステムの概念を示す模式図である。
Specific examples of various functions will be described below.
(Force / tactile transmission function)
FIG. 3 is a schematic diagram showing the concept of control when the force / tactile transmission function is defined in the function-specific force / speed allocation conversion block FT. Further, FIG. 4 shows a master device (here, the
図4に示すように、機能別力・速度割当変換ブロックFTによって定義される機能として、マスタ装置の動作をスレーブ装置に伝達すると共に、スレーブ装置に対する物体(例えば、検査対象物4)からの反力の入力をマスタ装置にフィードバックする機能(バイラテラル制御機能)を実現することができる。
この場合、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(3)及び(4)として表される。
As shown in FIG. 4, as a function defined by the force / speed allocation conversion block FT for each function, the operation of the master device is transmitted to the slave device, and the reaction from the object (for example, the inspection object 4) to the slave device is performed. It is possible to realize a function (bilateral control function) of feeding back the force input to the master device.
In this case, the coordinate conversion in the function-specific force / velocity allocation conversion block FT is expressed by the following equations (3) and (4).
ただし、式(3)において、x’pは速度(位置)の状態値を導出するための速度、x’fは力の状態値に関する速度である。また、x’mは基準値(マスタ装置からの入力)の速度(マスタ装置の現在位置の微分値)、x’sはスレーブ装置の現在の速度(現在位置の微分値)である。また、式(4)において、fpは速度(位置)の状態値に関する力、ffは力の状態値を導出するための力である。また、fmは基準値(マスタ装置からの入力)の力、fsはスレーブ装置の現在の力である。 However, in the equation (3), x'p is the velocity for deriving the state value of the velocity (position), and x'f is the velocity related to the state value of the force. Further, x'm is the speed of the reference value (input from the master device) (differential value of the current position of the master device), and x's is the current speed of the slave device (differential value of the current position). Further, in the equation (4), f p is a force related to the state value of the velocity (position), and f f is a force for deriving the state value of the force. Further, f m is the force of the reference value (input from the master device), and f s is the current force of the slave device.
(動作の抽出機能)
次に、本実施形態によって実現される人間の動作の抽出機能について詳細に説明する。
(基本原理)として上述したようにすれば、所定の機構のロボット(例えば、人間の身体の機能に対応する機構のロボット)を構成し、人間の動作をこのロボットに追従させて、その際のこのロボットの時系列の動作を検出することで、人間の動作を抽出することが可能となる。
(Action extraction function)
Next, the extraction function of human motion realized by this embodiment will be described in detail.
As described above as (basic principle), a robot having a predetermined mechanism (for example, a robot having a mechanism corresponding to the function of the human body) is configured, and human movements are made to follow this robot. By detecting the time-series movements of this robot, it is possible to extract human movements.
例えば、図1に示すような状態判定装置1の場合、人間が手を動かして状態判定装置1を操作する動作に追従して、状態判定装置1が備える複数のアクチュエータ(後述の図7にて図示する。)それぞれが動いた際の、それぞれのアクチュエータの位置を時系列に複数の位置センサ(後述の図7にて図示する。)で検出し、これらの位置を記憶装置に記憶しておく。
この場合に、それぞれのアクチュエータの位置の検出結果に代えて、機能別力・速度割当変換ブロックFTにおいて座標変換結果として得られる状態値を導出するための各値(例えば、時系列で算出された式(4)の左辺の各値)を記憶装置に記憶しておくこととしてもよい。
For example, in the case of the
In this case, instead of the detection result of the position of each actuator, each value (for example, calculated in time series) for deriving the state value obtained as the coordinate conversion result in the force / velocity allocation conversion conversion block FT for each function. Each value on the left side of the equation (4) may be stored in the storage device.
図5は、動作の抽出結果として記憶される情報例を示す模式図であり、図5(a)は複数のアクチュエータ(ここでは、アクチュエータA1~A4)の時系列の位置が記憶された場合、図5(b)は時系列の式(4)の座標変換結果が記憶された場合を示している。
図5(a)を参照すると、例えば、アクチュエータA1について、時刻t1では位置p1、時刻t2では位置p2、時刻t3では位置p3・・・と時系列の位置が記憶されている。
また、図5(b)を参照すると、例えば、座標変換結果x’’a1について、時刻t1では座標変換結果q1、時刻t2では座標変換結果q2、時刻t3では座標変換結果q3・・・と時系列の値が記憶されている。
これにより、人間が一度だけ実際に所定の行為における所定の動作を行えば、それ以降、この所定の動作を行わなくても、所定の動作の学習及び再現機能等の動作をロボットによって再現することができる。また、この所定の動作において用いられた力触覚に関する制御パラメータをログとして保存しておくことができる。
FIG. 5 is a schematic diagram showing an example of information stored as an operation extraction result, and FIG. 5A shows a case where the time-series positions of a plurality of actuators (here, actuators A1 to A4) are stored. FIG. 5B shows a case where the coordinate conversion result of the time-series equation (4) is stored.
Referring to FIG. 5A, for example, the actuator A1 stores a time-series position such as position p1 at time t1, position p2 at time t2, position p3 at time t3, and so on.
Further, referring to FIG. 5B, for example, regarding the coordinate conversion result x''a1 , the coordinate conversion result q1 at time t1, the coordinate conversion result q2 at time t2, the coordinate conversion result q3 at time t3, and so on. The series values are stored.
As a result, if a human actually performs a predetermined action in a predetermined action only once, the robot can reproduce the motion such as learning and reproduction function of the predetermined motion without performing the predetermined motion thereafter. Can be done. In addition, the control parameters related to the force and tactile sensation used in this predetermined operation can be saved as a log.
(スケーリング機能)
上述の力・触覚伝達機能において、位置、力及び時間のスケーリング機能をさらに実現することができる。
スケーリング機能とは、基準となる制御に対して、出力される位置、力あるいは時間のスケールを拡大あるいは縮小する機能である。スケーリング機能によって、例えば、マスタ装置の動きの大きさを縮小してスレーブ装置で再現したり、マスタ装置の動きの強さ(力)を強めてスレーブ装置で再現したり、あるいは、マスタ装置の動きの速度を低下させてスレーブ装置で再現したりすることができる。また、記憶装置に記憶された位置又は力の少なくとも一方の情報にスケーリング機能を用いることで、例えば、記憶された動きの大きさを縮小してスレーブ装置で再現したり、記憶された動きの強さ(力)を強めてスレーブ装置で再現したりすることができる。
以下、スケーリング機能を実現するための構成例について説明する。
(Scaling function)
In the above-mentioned force / tactile transmission function, the position, force and time scaling function can be further realized.
The scaling function is a function that expands or contracts the scale of the output position, force, or time with respect to the reference control. With the scaling function, for example, the magnitude of the movement of the master device can be reduced and reproduced on the slave device, the strength (force) of the movement of the master device can be increased and reproduced on the slave device, or the movement of the master device can be reproduced. It can be reproduced by a slave device by reducing the speed of. In addition, by using the scaling function for at least one of the information of the position or force stored in the storage device, for example, the magnitude of the stored movement can be reduced and reproduced by the slave device, or the strength of the stored movement can be achieved. It can be reproduced with a slave device by strengthening the memory (power).
Hereinafter, a configuration example for realizing the scaling function will be described.
(スケーリングを伴う力・触覚伝達機能)
スケーリングを伴う力・触覚伝達機能が実現される場合、図2における機能別力・速度割当変換ブロックFTにおける座標変換は、次式(5)及び(6)として表される。
(Force / tactile transmission function with scaling)
When the force / tactile transmission function accompanied by scaling is realized, the coordinate conversion in the function-specific force / velocity allocation conversion block FT in FIG. 2 is expressed by the following equations (5) and (6).
式(5)及び式(6)に示す座標変換とした場合、スレーブ装置の位置がα倍(αは正数)、スレーブ装置の力がβ倍(βは正数)されて、マスタ装置に伝達される。
このようなスケーリング機能によって、例えば、把持の際に、ユーザUの操作に伴う力触覚を抑制したり、強調したりすることができるため、より繊細な作業や、より力の必要な作業を行う場合に有効となる。
In the case of the coordinate conversion shown in the equations (5) and (6), the position of the slave device is multiplied by α (α is a positive number), the force of the slave device is multiplied by β (β is a positive number), and the master device is used. Be transmitted.
With such a scaling function, for example, when gripping, the force-tactile sensation associated with the operation of the user U can be suppressed or emphasized, so that more delicate work or work requiring more force can be performed. It will be effective if.
(スケーリングによる力の制限を伴う力・触覚伝達機能)
スケーリングによる力の制限を伴う力・触覚伝達機能が実現される場合、図2における機能別力・速度割当変換ブロックFTにおける座標変換は、例えば、次式(7)~(10)として表される。
なお、このような機能を実現する場合、以下のような条件を考慮することが適当である。
・速度次元まで連続であること(ヤコビ行列の存在条件)
・制限後の力が元の力の単調増加関数であること(安定性の条件)
・fs<aの時にはfs=fshatもしくはfs≒fshat(fshatは式(9)及び式(10)において機能別力・速度割当変換ブロックFTに含まれるパラメータ)
(安全領域での制御性能を保証する条件)
・飽和関数であること(ポジションリミットを実現する条件)
これらの条件を満たす他の関数として、atan関数を採用することも可能である。
(Force / tactile transmission function with force limitation due to scaling)
When the force / tactile transmission function with force limitation due to scaling is realized, the coordinate conversion in the function-specific force / velocity allocation conversion block FT in FIG. 2 is expressed by, for example, the following equations (7) to (10). ..
When realizing such a function, it is appropriate to consider the following conditions.
-Continuous up to the velocity dimension (existence condition of Jacobian determinant)
-The force after restriction is a monotonic increase function of the original force (stability condition)
・ When f s <a, f s = f shat or f s ≒ f shat (f shat is a parameter included in the functional force / velocity allocation conversion block FT in equations (9) and (10)).
(Conditions that guarantee control performance in the safe area)
・ Saturation function (condition to realize position limit)
It is also possible to adopt the atan function as another function that satisfies these conditions.
式(7)~式(10)に示す座標変換とした場合、スレーブ装置の力がa未満の場合、式(7)、(8)の座標変換を適用することで、スレーブ装置とマスタ装置とは同様の力に制御される。一方、スレーブ装置の力がa以上の場合、式(9)、(10)の座標変換を適用することで、スケーリング機能が作用し、スレーブ装置は(1/b+a)の力を超えないように制御される。
このようなスケーリング機能によって、例えば、本実施形態による処理において、把持における力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて安定した精度で判定を行うことが可能となる。また、検査対象物4の破損を回避することが可能となる。なお、上述した(7)~式(10)に示す座標変換において、例えば、スケーリングの対象を、力ではなく位置とすることで、位置の制限を伴う力・触覚伝達機能を実現することも可能である。
In the case of the coordinate transformations shown in the equations (7) to (10), if the force of the slave device is less than a, the slave device and the master device can be obtained by applying the coordinate transformations of the equations (7) and (8). Is controlled by a similar force. On the other hand, when the force of the slave device is a or more, the scaling function works by applying the coordinate transformations of the equations (9) and (10) so that the slave device does not exceed the force of (1 / b + a). Be controlled.
With such a scaling function, for example, in the process according to the present embodiment, it is possible to make a determination with stable accuracy based on a change in position (that is, a movement amount) while the force in gripping is constant. .. In addition, it is possible to avoid damage to the
(周波数領域におけるスケーリングを用いた力・触覚伝達機能)
図6は、周波数領域におけるスケーリングを用いた力・触覚伝達機能の制御の概念を示す模式図である。
図6において、マスタ装置及びスレーブ装置の出力は、ハイパスフィルタ(HPF)及びローパスフィルタ(LPF)をそれぞれ通過した後に、機能別力・速度割当変換ブロックFTに入力される。
機能別力・速度割当変換ブロックFTでは、ハイパスフィルタを通過したマスタ装置及びスレーブ装置の出力に対して、高周波域用の座標変換を適用し、ローパスフィルタを通過したマスタ装置及びスレーブ装置の出力に対して、低周波域用の座標変換を適用する。
すなわち、機能別力・速度割当変換ブロックFTは、マスタ装置及びスレーブ装置からの入力を高周波域及び低周波域の信号に分離し、それぞれの周波数域に対応する座標変換を適用する。
(Force / tactile transmission function using scaling in the frequency domain)
FIG. 6 is a schematic diagram showing the concept of controlling the force / tactile transmission function using scaling in the frequency domain.
In FIG. 6, the outputs of the master device and the slave device are input to the function-specific force / speed allocation conversion block FT after passing through the high-pass filter (HPF) and the low-pass filter (LPF), respectively.
In the function-specific force / speed allocation conversion block FT, coordinate conversion for the high frequency range is applied to the output of the master device and slave device that have passed the high-pass filter, and the output of the master device and slave device that has passed the low-pass filter is applied. On the other hand, the coordinate transformation for the low frequency range is applied.
That is, the function-specific force / speed allocation conversion block FT separates the inputs from the master device and the slave device into signals in the high frequency range and the low frequency range, and applies coordinate conversion corresponding to each frequency range.
図6に示すように、周波数領域におけるスケーリングを用いた力・触覚伝達機能が実現される場合、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(11)~(14)として表される。 As shown in FIG. 6, when the force / tactile transmission function using scaling in the frequency domain is realized, the coordinate conversion in the function-specific force / velocity allocation conversion block FT is expressed as the following equations (11) to (14). Will be done.
式(11)~式(14)に示す座標変換とした場合、低周波域では、式(11)、(12)の座標変換を適用することで、スレーブ装置とマスタ装置とは同様の位置となるように制御され、高周波域では、式(13)、(14)の座標変換を適用することで、スレーブ装置の位置がα倍(αは正数)、スレーブ装置の力がβ倍(βは正数)されて、マスタ装置に伝達される。
このようなスケーリング機能によって、例えば、スレーブ装置が、物体を貫通したり、破断したりする際の感覚を強調してマスタ装置に伝達することが可能となる。
In the case of the coordinate conversion shown in the equations (11) to (14), in the low frequency region, by applying the coordinate transformations of the equations (11) and (12), the slave device and the master device have the same position. In the high frequency range, by applying the coordinate transformations of equations (13) and (14), the position of the slave device is α times (α is a positive number) and the force of the slave device is β times (β). Is a positive number) and transmitted to the master device.
Such a scaling function enables, for example, the slave device to emphasize the sensation when penetrating or breaking an object and transmit it to the master device.
(時間のスケーリングを用いた機能の再現)
状態判定装置1による機能の再現において、学習して記憶されている機能を示す情報(例えば、図5に示す行為の抽出結果を表す時系列のデータ)を間引く、あるいは、補間する等して目標値とすることにより、時間のスケーリングを実現することができる。
具体的には、学習して記憶されている機能を示す情報を間引いた上で、理想力源ブロックFCあるいは理想速度(位置)源ブロックPCにおける演算の目標値として用いることにより、記憶されている機能(動作)を高速で再現することができる。同様に、学習して記憶されている機能を示す情報を補間した上で、目標値として用いることにより、記憶されている機能(動作)を低速で再現することができる。
(Reproduction of function using time scaling)
In the reproduction of the function by the
Specifically, it is stored by thinning out the information indicating the function learned and stored, and then using it as the target value of the calculation in the ideal power source block FC or the ideal speed (position) source block PC. Functions (operations) can be reproduced at high speed. Similarly, by interpolating the information indicating the learned and stored function and using it as the target value, the stored function (operation) can be reproduced at a low speed.
このように、記憶されている機能(動作)を高速で再現する場合、行為の抽出時には、低速且つ正確な動作を行えばよく、再現時には、高速且つ正確な動作とすることができる。
また、記憶されている機能(動作)を低速で再現する場合、通常の速度で行われている動作を緩やかに再現できる。
In this way, when reproducing the stored function (operation) at high speed, it is sufficient to perform a low-speed and accurate operation at the time of extracting the action, and it is possible to perform a high-speed and accurate operation at the time of reproduction.
Further, when the stored function (operation) is reproduced at a low speed, the operation performed at a normal speed can be reproduced slowly.
[状態判定装置の構成]
次に、状態判定装置1の構成について、図7を参照して説明をする。図7は、状態判定装置1の基本的構成を示す模式図である。
[Configuration of status determination device]
Next, the configuration of the
図7に示すように、状態判定装置1は、制御ユニット10と、マスタ側ユニット50と、操作機構55と、スレーブ側ユニット60と、把持機構65と、を含む。また、マスタ側ユニット50は、マスタ側ドライバ51と、マスタ側アクチュエータ52と、マスタ側位置センサ53と、を含む。さらに、マスタ側ユニット50は、マスタ側アクチュエータ52により、操作機構55を動作させる。同様に、スレーブ側ユニット60は、スレーブ側ドライバ61と、スレーブ側アクチュエータ62と、スレーブ側位置センサ63と、を含む。さらに、スレーブ側ユニット60は、スレーブ側アクチュエータ62により、把持機構65を動作させる。
なお、以下の説明において、マスタ側(ここでは、操作機構側)とスレーブ側(ここでは、把持機構側)を区別することなく説明する場合には、名称や符号の一部を省略して、単に「ユニット」、「ドライバ」、「アクチュエータ」、「位置センサ」と称する。
As shown in FIG. 7, the
In the following description, when the master side (here, the operation mechanism side) and the slave side (here, the gripping mechanism side) are described without distinction, some of the names and symbols are omitted. They are simply referred to as "units", "drivers", "actuators", and "position sensors".
状態判定装置1は、図1を参照して上述したように制御ユニット10、マスタ側ユニット50、及びスレーブ側ユニット60が協働することにより、マスタ装置及びスレーブ装置として動作するものであり、マスタ装置及びスレーブ装置の一方の装置として動作する場合、他方の装置として動作するユニット(すなわち、マスタ側ユニット50又はスレーブ側ユニット60)のアクチュエータ(すなわち、マスタ側アクチュエータ52又はスレーブ側アクチュエータ62)に設置された位置センサ(すなわち、マスタ側位置センサ53又はスレーブ側位置センサ63)の検出結果を入力として、機能に応じた動作を行う。
状態判定装置1に実装される機能は、上述したように、制御ユニット10にて実現される機能別力・速度割当変換ブロックFTによって定義される座標変換を切り替えることで、種々変更することができる。
The
As described above, the functions implemented in the
制御ユニット10は、状態判定装置1全体を制御するものであり、CPU(Central Processing Unit)等のプロセッサと、メモリあるいはハードディスク等の記憶装置を含んだ情報処理装置によって構成される。
制御ユニット10は、図2や図3における機能別力・速度割当変換ブロックFTと、理想力源ブロックFCと、理想速度(位置)源ブロックPCと、逆変換ブロックIFTとの機能を備えている。そして、制御ユニット10では、これらの機能により、マスタ装置及びスレーブ装置の一方の装置として動作するための制御を行う。
The
The
そのために、制御ユニット10は、状態判定装置1に備えられる機能毎の基準となる値(以下、「基準値」と称する。)を取得する。この基準値は、例えば、マスタ装置及びスレーブ装置の一方の装置として動作する場合、他方の装置として動作するユニットのアクチュエータに設置された位置センサから出力される時系列の検出値である。このように他方の装置として動作するユニットから時系列の検出値をリアルタイムで制御ユニット10に基準値として取得する場合、制御ユニット10は、通信インターフェース(通信I/F)によって構成することができる。また、上述した(動作の抽出機能)を実現するべく、他方の装置として動作するユニットの時系列の検出値を記憶しておき、基準値として順次読み出して制御ユニット10が取得する場合、制御ユニット10は、メモリあるいはハードディスク等の記憶装置によって構成することができる。
Therefore, the
すなわち、制御ユニット10には、まず、他方の装置として動作するユニットの位置センサによって検出された時系列の検出値が基準値として入力される。この時系列の検出値は、他方の装置として動作するユニットの動作を表すものであり、制御ユニット10は、入力された検出値(位置)から導出された速度(位置)及び力の情報に対して、機能に応じて設定されている座標変換を適用する。
That is, first, the time-series detection value detected by the position sensor of the unit operating as the other device is input to the
そして、制御ユニット10は、座標変換によって得られた速度(位置)の状態値を導出するための速度(位置)に対し、速度(位置)の領域における演算を行う。同様に、制御ユニット10は、座標変換によって得られた力の状態値を導出するための力に対し、力の領域における演算を行う。さらに、制御ユニット10は、算出した速度(位置)の領域における演算結果及び力の領域における演算結果に対して、加速度等への次元統一の処理を施し、また、機能に応じて設定されている座標変換の逆変換を適用する。これにより、制御ユニット10は、算出した速度(位置)の領域における演算結果及び力の領域における演算結果がアクチュエータへの入力の領域の値に変換する。
Then, the
また、制御ユニット10では、さらに、検査対象物4の破損に関する検査を補助するための処理を行うための機能ブロックが機能する。この機能ブロックについては、図8を参照して後述する。
Further, in the
ドライバは、制御ユニット10によって逆変換されたアクチュエータへの入力の領域の値をアクチュエータに対する具体的な制御指令値(電圧値又は電流値等)に変換し、その制御指令値をアクチュエータに出力する。
アクチュエータは、ドライバから入力された制御指令値に従って駆動され、制御対象装置の位置を制御する。
位置センサは、アクチュエータによって制御される制御対象装置の位置を検出し、検出値を制御ユニット10に出力する。
The driver converts the value in the region of the input to the actuator, which is inversely converted by the
The actuator is driven according to the control command value input from the driver, and controls the position of the controlled device.
The position sensor detects the position of the controlled target device controlled by the actuator and outputs the detected value to the
このような構成により、状態判定装置1は、位置センサによって検出されたアクチュエータの位置から得られる速度(位置)及び力を、機能に応じた座標変換によって速度(位置)の領域及び力の領域の状態値に変換する。これにより、機能に応じて速度(位置)及び力それぞれに制御エネルギーが分配される。そして、それぞれの状態値が逆変換されて制御指令値とされ、この制御指令値に従って、ドライバによりアクチュエータが駆動される。
With such a configuration, the
したがって、状態判定装置1は、マスタ装置及びスレーブ装置の一方のアクチュエータの位置を検出することで、目的とする機能を実現するために必要な速度(位置)及び力の状態値を算出することができ、これらの状態値に基づいてマスタ装置及びスレーブ装置の他方のアクチュエータを駆動することで、マスタ装置及びスレーブ装置の位置及び力を目的とする状態に制御することができる。
Therefore, the
また、状態判定装置1は、制御ユニット10における機能に応じた座標変換を切り替えることで、異なる機能を実現することが可能となる。例えば、状態判定装置1に備えられた記憶装置に、複数の機能に対応して、各種機能に応じた座標変換を記憶しておき、目的に応じて、いずれかの機能に応じた座標変換を選択することで、状態判定装置1において種々の機能を実現させることが可能となる。
Further, the
例えば、(力・触覚伝達機能)として上述した機能を実現する場合、状態判定装置1は、制御ユニット10に対して入力される基準値を、他方の装置として動作するユニットからリアルタイムに入力される位置及び力の取得値とすることができる。この場合、他方の装置として動作するユニットの動作とリアルタイムに連動して、一方の装置を制御することができる。すなわち、この場合、制御ユニット10においては、式(2)として表される座標変換が定義されるため、マスタ装置として動作するマスタ側アクチュエータ52の位置とスレーブ装置として動作するスレーブ側アクチュエータ62の位置との差がゼロとなる状態に制御される。
For example, when realizing the above-mentioned function as (force / tactile transmission function), the
また、(力・触覚伝達機能)として上述した機能を実現する場合、マスタ装置として動作するマスタ側アクチュエータ52に操作者が加える操作における力触覚をスレーブ装置に伝達すると共に、スレーブ装置として動作するスレーブ側アクチュエータ62に作用する物体(例えば、検査対象物4)からの反力をマスタ装置として動作するマスタ側アクチュエータ52にフィードバックする。これにより、マスタ装置に対して行われた操作がスレーブ装置で正確に再現されると共に、スレーブ装置に入力された物体からの反力をマスタ装置に正確に伝達することができる。
Further, when the above-mentioned function is realized as (force / tactile transmission function), the force / tactile sensation in the operation applied by the operator to the master side actuator 52 operating as the master device is transmitted to the slave device, and the slave operates as the slave device. The reaction force from the object (for example, the object to be inspected 4) acting on the
他にも、例えば、(動作の抽出機能)として上述した機能を実現する場合、状態判定装置1は、制御ユニット10に対して入力される基準値を、予め取得して記憶された他方の装置として動作するユニットの時系列の位置及び力の取得値とすることができる。この場合、予め用意された他方の装置として動作するユニットの動作を基準として、状態判定装置1の機能を実現することができる。すなわち、他方の装置として動作するユニットが存在しない状態で、状態判定装置1において、目的とする機能を再現することができる。
In addition, for example, when the above-mentioned function is realized as (operation extraction function), the
他にも、例えば、(スケーリング機能)として上述した機能を実現する場合、状態判定装置1は、スケーリング機能によって、例えば、一方の装置として動作するユニットの動きの大きさを縮小して他方の装置として動作するユニットで再現したり、一方の装置として動作するユニットの動きの強さ(力)を強めて他方の装置として動作するユニットで再現したり、あるいは、一方の装置として動作するユニットの動きの速度を低下させて他方の装置として動作するユニットで再現したりすることができる。
In addition, for example, when realizing the above-mentioned function as (scaling function), the
他にも、例えば、(動作の抽出機能)として上述した機能と、(スケーリング機能)として上述した機能の双方を実現した場合、状態判定装置1は、動作の抽出機能により記憶装置に記憶された位置又は力の少なくとも一方の情報にスケーリング機能を用いることで、例えば、記憶された動きの大きさを縮小して他方の装置として動作するユニットで再現したり、記憶された動きの強さ(力)を強めて他方の装置として動作するユニットで再現したりすることができる。
In addition, for example, when both the above-mentioned function as (motion extraction function) and the above-mentioned function as (scaling function) are realized, the
上述のようにして、制御ユニット10は、マスタ側ユニット50のマスタ装置としての動作や、スレーブ側ユニット60のスレーブ装置としての動作を制御することにより把持装置としての機能を実現すると共に、さらに、ウェアラブル端末2やサーバ装置3と協働して「状態判定処理」を行なう。
ここで、状態判定処理は、検査対象物4の破損に関する検査を補助するために、検査対象物4が破損しているか否かを判定する一連の処理である。
As described above, the
Here, the state determination process is a series of processes for determining whether or not the
図8は、この状態判定処理を実現するための、制御ユニット10のハードウェア及び機能ブロックの一例を示すブロック図である。図8に示すように、制御ユニット10は、プロセッサ11と、ROM12と、RAM13と、通信部14と、記憶部15と、入力部16と、出力部17と、ドライブ18と、を含む。また、図8では図示を省略しているが、図7において図示したように制御ユニット10には、ドライバと、位置センサとが接続される。これら各部は、信号線により接続されており、相互に信号を送受する。
FIG. 8 is a block diagram showing an example of hardware and functional blocks of the
プロセッサ11は、ROM12に記録されているプログラム、又は、記憶部15からRAM13にロードされたプログラムに従って各種の処理を実行する。RAM13には、プロセッサ11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
なお、図中において、プロセッサ11は、単一のプロセッサとして図示されているが、これは一例に過ぎない。例えば、プロセッサ11を、複数のプロセッサにより実現するようにしてもよい。この場合、例えば、上述したマスタ装置やスレーブ装置としての動作を制御する機能(図中における「動作制御部111」や「パラメータ取得部112」に相当)と、これと協働して状態判定処理を行う機能(図中における「判定基準設定部113」や「判定部114」に相当)とを、それぞれ別のプロセッサにより実現してもよい。さらに、この場合、プロセッサは、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の処理回路を含むものであってもよい。また、この場合、ROM12やRAM13等は、プロセッサ毎にそれぞれ設けられていてもよい。
The
In the figure, the
通信部14は、プロセッサ11が、他の装置(例えば、ウェアラブル端末2やサーバ装置3等)との間で通信を行うための通信制御を行う。記憶部15は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
The
入力部16は、各種ボタン及びタッチパネル、又はマウス及びキーボード等の外部入力装置で構成され、ユーザの指示操作に応じて各種情報を入力する。出力部17は、ディスプレイやスピーカ等で構成され、画像や、音声や警告音等を出力する。
ドライブ18には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア(図示を省略する。)が適宜装着される。ドライブ18よってリムーバブルメディアから読み出されたプログラムは、必要に応じて記憶部15にインストールされる。
The
A removable medium (not shown) made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the
このようなハードウェア構成において、状態判定処理を実現する場合、図8に示すようにプロセッサ11にて、動作制御部111と、パラメータ取得部112と、判定基準設定部113と、判定部114と、が機能する。
また、このようなハードウェア構成において、状態判定処理を実現する場合、図8に示すように記憶部15の一領域には、パラメータ記憶部151と、判定基準記憶部152と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
When the state determination process is realized in such a hardware configuration, as shown in FIG. 8, the
Further, in the case of realizing the state determination process in such a hardware configuration, as shown in FIG. 8, a
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.
動作制御部111は、上述のようにして、マスタ装置として動作するマスタ側ユニット50や、スレーブ装置として動作するスレーブ側ユニット60に対して、力・触覚伝達機能を適用した動作の制御を行う。すなわち、動作制御部111は、図2や図3における機能別力・速度割当変換ブロックFTと、理想力源ブロックFCと、理想速度(位置)源ブロックPCと、逆変換ブロックIFTとの機能を実現する。また、この場合に動作制御部111は、図3を参照して上述したようにして、機能別力・速度割当変換ブロックFTにおいて力・触覚伝達機能を定義して、力・触覚伝達機能を適用した動作の制御を行う。さらに、この場合に動作制御部111は、機能に応じた座標変換を切り替えることで、異なる機能を実現する。
As described above, the
パラメータ取得部112は、動作制御部111による力・触覚伝達機能を適用した動作の制御で用いた制御パラメータ(以下、「力触覚に関する制御パラメータ」と称する。)を取得する。以下では、説明のための一例として、パラメータ取得部112は、位置センサによって検出されたアクチュエータの位置から得られる位置を示す値及び力を示す値を、力触覚に関する制御パラメータとして取得することを想定する。
The
ここで、上述したように、アクチュエータにおける力は質量と加速度との積として算出でき、アクチュエータにおける速度(位置)は加速度の積分によって算出することができる。そこで、例えば、パラメータ取得部112は、図5(a)を参照して上述した(動作の抽出機能)における各アクチュエータの時系列の位置や、図5(b)を参照して上述した(動作の抽出機能)における時系列の式(4)の座標変換結果に対応する情報に基づいて、リアルタイムに積分等の演算を行うことで位置を示す値及び力を示す値を算出して、これら力触覚に関する制御パラメータを取得する。
Here, as described above, the force in the actuator can be calculated as the product of the mass and the acceleration, and the velocity (position) in the actuator can be calculated by integrating the acceleration. Therefore, for example, the
また、パラメータ取得部112は、取得した力触覚に関する制御パラメータをパラメータ記憶部151に記憶させる。すなわち、パラメータ記憶部151は、力触覚に関する制御パラメータを記憶する記憶部として機能する。
Further, the
判定基準設定部113は、後述の判定部114が、検査対象物4が破損しているか否かを判定するための基準を設定する。以下では、説明のための一例として、所定の閾値に基づいて判定を行うことを想定するので、判定基準設定部113は、この所定の閾値を設定し、設定した所定の閾値を判定基準として判定基準記憶部152に記憶させる。すなわち、判定基準記憶部152は、判定基準である所定の閾値を記憶する記憶部として機能する。
The determination
ここで、本実施形態では、より適切に判定を行うために、今回判定対象とする検査対象物4の種類等に応じて、所定の閾値を適宜異ならせる。この今回判定対象とする検査対象物4の種類等に応じた所定の閾値の具体的な数値は、ウェアラブル端末2から判定基準設定部113に対して送信される。
Here, in the present embodiment, in order to make a more appropriate determination, the predetermined threshold value is appropriately different depending on the type of the
判定部114は、検査対象物4の破損に関する検査を補助するために、検査対象物4が破損しているか否かを判定する。この判定は、上述したように、判定基準設定部113が設定して、判定基準記憶部152に記憶させた所定の閾値に基づいて行われる。判定部114による具体的な判定方法については、図11、図12、図13及び図16のフローチャートを参照して後述する。
また、判定部114は、判定結果をウェアラブル端末2に対して送信する。
The
Further, the
[ウェアラブル端末の構成]
次に、ウェアラブル端末2の構成について、図9を参照して説明をする。図9は、ウェアラブル端末2のハードウェア及び機能ブロックの一例を示すブロック図である。図9に示すように、ウェアラブル端末2は、プロセッサ21と、ROM22と、RAM23と、通信部24と、記憶部25と、入力部26と、出力部27と、カメラ28と、センサ29と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これらの内、カメラ28及びセンサ29以外の各部のハードウェアとしての機能は、図8を参照して上述した状態判定装置1が備える同名の各部と同様である。そのため、これら各部のハードウェアとしての機能については、重複する再度の説明を省略する。一方で、カメラ28及びセンサ29について、以下説明をする。
[Wearable device configuration]
Next, the configuration of the
カメラ28は、光学レンズやイメージセンサといった撮影用の素子や、これらを制御するための周辺回路を備えている。カメラ28により被写体を撮影することにより生成された画像データや、あるいは、ヘッドトラッキング用等の周辺環境を示す画像データは、適宜プロセッサ21に対して出力される。
The
センサ29は、ウェアラブル端末2における、加速度、ジャイロ(すなわち、角度や角速度等)、及び方位を計測する。センサ29における計測結果についても、適宜プロセッサ21に対して出力される。
The
プロセッサ21は、これらカメラ28やセンサ29の出力に基づいて、ユーザの頭の位置や向き等を特定し、この特定した頭の位置や向きに基づいて、出力部27に含まれる透過型のディスプレイの、適切な表示位置にユーザUに対する通知(ここでは、表示)を行う。これにより、上述したようにして、透過型のディスプレイを介してユーザUが視認できる現実の景色と、透過型ディスプレイに表示される仮想現実(例えば、仮想的に生成された画像やテキスト等を含む)とを重畳して、ユーザUに対して通知をすることができる。すなわち、本実施形態では、力触覚を伝達する技術と、複合現実の技術を組み合わせて、ユーザUの検査等における作業や判断を補助(すなわち、サポート)することができる。
The
なお、これも上述したように、この通知は、出力部27が備えるスピーカからの音(音声や警告音等)の出力や、警告灯の点滅等により実現されてもよい。
また、プロセッサ21は、このような複合現実の技術に関する表示を行うために、CPUのみならず、GPU(Graphics Processing Unit)等の画像処理用のプロセッサを含んで実現されてもよい。
As described above, this notification may be realized by outputting a sound (voice, warning sound, etc.) from the speaker included in the
Further, the
このようなハードウェア構成において、状態判定処理を実現する場合、図9に示すようにプロセッサ21にて、指示解釈部211と、対象物撮影部212と、対象物情報管理部213と、通知部214と、作業情報管理部215と、が機能する。
また、この場合、図9に示すように記憶部25の一領域には、対象物情報記憶部251と、作業情報記憶部252と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
In such a hardware configuration, when the state determination process is realized, the
Further, in this case, as shown in FIG. 9, an object
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.
指示解釈部211は、ユーザUからの指示操作の内容を解釈する。ここで、ユーザUからの指示操作は、入力部26が備えるボタン等に対する押下操作等により受け付けられてもよいが、指示解釈部211が解釈のための処理を行うことにより、他の方法で受け付けられてもよい。そのようにする理由であるが、本実施形態では、ユーザUがウェアラブル端末2を用いながら、同時に状態判定装置1を手で携帯して、把持のための操作を行うことを想定しており、この場合、ボタンを押下する操作では、この把持操作の妨げになる可能性があるからである。そこで、ウェアラブル端末2では、例えば、入力部26が備えるスピーカが、ユーザUからの音声からなる指示(いわゆる、ボイスコマンド)で指示操作を受け付けるようにする。そして、指示解釈部211が、その音声からなる指示の内容を解釈するようにする。あるいは、カメラ28が、ユーザUの手の動き等のジェスチャーからなる指示操作を受け付けるようにする。そして、指示解釈部211が、そのジェスチャーからなる指示操作を解釈するようにする。
このように、音声からなる指示やジェスチャーからなる指示操作を受け付け可能とすることにより、ウェアラブル端末2に対する指示のための操作が、状態判定装置1に対する把持のための操作の妨げになることを防止し、ユーザUの利便性をより向上させることができる。
The
In this way, by making it possible to accept an instruction consisting of voice and an instruction operation consisting of gestures, it is possible to prevent the operation for instructing the
対象物撮影部212は、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした画像データ(以下、「検査対象物画像データ」と称する。)を生成する。そして、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3に対して送信する。サーバ装置3は、この検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
The
対象物情報管理部213は、対象物情報を管理する。ここで、対象物情報とは、検査対象物4となり得る物品それぞれに関する情報である。例えば、検査対象物4となり得る物品の、製品名、外観(すなわち、包装容器)の画像データ、バーコード等の識別用の情報の画像データ、対応する所定の閾値の値、及び検査時に把持機構65において把持すべき位置の画像データ等が対象物情報に含まれる。なお、これは一例であり、他にも、検査対象物4となり得る物品の、製造業者、賞味期限、及び小売価格等の製品に関する一般的な情報が対象物情報に含まれていてもよい。
The object
対象物情報管理部213は、サーバ装置3や、検査対象物4を製造する製造業者のサーバ装置(図示を省略する)と通信を行うことにより、対象物情報を取得する。また、対象物情報管理部213は、このような通信を周期的に繰り返すことにより、対象物情報が最新の内容となるように更新をする。
そして、対象物情報管理部213は、このようにして取得及び更新した対象物情報を対象物情報記憶部251に記憶させる。すなわち、対象物情報記憶部251は、対象物情報を記憶する記憶部として機能する。
The object
Then, the object
通知部214は、ユーザUに対して、検査対象物4の破損に関する検査を補助するための各種の情報や、ユーザインタフェース等を通知する。各種の情報とは、例えば、サーバ装置3による画像解析による検査対象物4の識別結果や、状態判定装置1による検査対象物4が破損しているか否かの判定結果や、判定結果に対応した作業指示等である。また、ユーザインタフェースとは、例えば、状態判定処理に関連するユーザインタフェースである。
通知部214による通知は、上述したように、出力部27が備える透過型のディスプレイへの表示や、出力部27が備えるスピーカからの音(音声や警告音等)の出力や、警告灯の点滅等により実現される。なお、通知部214による通知の具体例については、図15及び図16を参照して後述する。
The
As described above, the notification by the
作業情報管理部215は、作業情報を管理する。ここで、作業情報とは、検査対象物4に関連して行うべき作業の情報である。例えば、検査対象物4が破損しているか否かを検査するべき時間帯や、破損しているか否かの結果に応じた仕分け先の場所(例えば、仕分け先となる棚や格納容器の場所)や、このような検査を伴う仕分けやピッキングを行うべき時間帯等が作業情報に含まれる。また、実際に検査等の作業を行ったユーザUの識別情報や、実際に作業が行われた時間帯や、検査結果等の作業履歴が作業情報に含まれていてもよい。なお、これは一例であり、他にも、例えば、検査対象物4の、配送先の住所や、配送すべき時間帯や、配送すべき個数等の物流に関する情報が作業情報に含まれていてもよい。
The work
作業情報管理部215は、サーバ装置3や、検査対象物4を配送する物流業者のサーバ装置(図示を省略する)と通信を行うことにより、作業情報を取得する。また、作業情報管理部215は、このような通信を周期的に繰り返すことにより、作業情報が最新の内容となるように更新をする。
そして、作業情報管理部215は、このようにして取得及び更新した作業情報を作業情報記憶部252に記憶させる。すなわち、作業情報記憶部252は、作業情報を記憶する記憶部として機能する。
The work
Then, the work
[サーバ装置の構成]
次に、サーバ装置3の構成について、図10を参照して説明をする。図10は、サーバ装置3のハードウェア及び機能ブロックの一例を示すブロック図である。図10に示すように、サーバ装置3は、プロセッサ31と、ROM32と、RAM33と、通信部34と、記憶部35と、入力部36と、出力部37と、ドライブ38と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これら各部のハードウェアとしての機能は、図8を参照して上述した状態判定装置1が備える同名の各部や、図9を参照して上述したウェアラブル端末2が備える同名の各部と同様である。そのため、これら各部のハードウェアとしての機能については、重複する再度の説明を省略する。
[Server device configuration]
Next, the configuration of the
このようなハードウェア構成において、状態判定処理を実現する場合、図10に示すようにプロセッサ31にて、対象物情報管理部311と、識別部312と、作業情報管理部313と、が機能する。
また、この場合、図10に示すように記憶部35の一領域には、対象物情報管理部351と、作業情報記憶部352と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
In such a hardware configuration, when the state determination process is realized, the object
Further, in this case, as shown in FIG. 10, an object
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.
対象物情報管理部311は、ウェアラブル端末2が備える対象物情報管理部213と同様に、対象物情報を管理する。ここで、対象物情報の詳細については、対象物情報管理部213の説明の際に上述しているので、ここでは再度の説明を省略する。また、対象物情報管理部311は、これも対象物情報管理部213と同様であるが、対象物情報管理部213や、検査対象物4の製造業者のサーバ装置(図示を省略する)と通信を行うことにより、対象物情報を取得したり更新したりする。
そして、対象物情報管理部311は、このようにして取得及び更新した対象物情報を対象物情報管理部351に記憶させる。すなわち、対象物情報管理部351は、対象物情報を記憶する記憶部として機能する。
The object
Then, the object
識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。ここで、検査対象物画像データは、上述したように、ウェアラブル端末2の対象物撮影部212が、カメラ28を用いた撮影を行うことにより生成した、検査対象物4を被写体とした画像データである。識別部312は、人工知能(AI:Artificial Intelligence)や所定のアルゴリズムを用いた画像解析により、この識別を実現する。
The
例えば、識別部312は、検査対象物画像データと、対象物情報に含まれる、検査対象物4となり得る物品それぞれの外観(すなわち、包装容器)の画像データやバーコード等の識別用の情報の画像データとを、既存の手法を利用したパターンマッチングで比較することにより、この識別を実現する。
For example, the
あるいは、識別部312は、例えば、機械学習により学習モデルを構築することにより、この識別を実現する。この場合、例えば、識別部312は、何れかの検査対象物4となり得る物品を被写体とした画像データと、被写体となっている検査対象物4の種類を示すラベル(すなわち、正解を示すラベル)とを組にして教師データを生成する。なお、この場合に、何れの検査対象物4も被写体となっていない画像データと、不正解を示すラベルとを組にした教師データを、さらに生成してもよい。そして、識別部312は、この教師データを用いて、教師あり機械学習を行う。この場合、例えば、識別部312は、パーセプトロンを組み合わせて構成したニューラルネットワークにより、機械学習を行う。具体的には、教師データに含まれる画像データの特徴量をニューラルネットワークの入力層に対して入力データとして与え、ニューラルネットワークの出力層の出力がラベルと同じとなるように、各パーセプトロンについての重み付けを変更しながら学習を繰り返す。
Alternatively, the
そして、識別部312は、このようにして学習モデルを構築した後、検査対象物画像データの特徴量を、この学習モデルに入力し、その出力を識別結果とする。なお、機械学習の手法は必ずしも限定されず、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等の画像解析に好適な手法を用いたりしてもよい。
Then, after the learning model is constructed in this way, the
識別部312は、このようにして人工知能や所定のアルゴリズムを用いた画像解析により、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別し、その識別結果をウェアラブル端末2に対して送信する。このように、本実施形態では、画像解析により検査対象物4を識別することができる。そのため、仮に、検査対象物4に、バーコードやICタグが添付されていないような場合であっても、多種多様な検査対象物4を識別することができる。すなわち、検査対象物4に対する変更や加工を必要とせず、現状の流通の仕組みのままで本実施形態を適用することができる。
The
作業情報管理部313は、ウェアラブル端末2が備える作業情報管理部215と同様に、作業情報を管理する。ここで、作業情報の詳細については、作業情報管理部215の説明の際に上述しているので、ここでは再度の説明を省略する。また、作業情報管理部313は、これも作業情報管理部215と同様であるが、作業情報管理部215や、検査対象物4を配送する物流業者のサーバ装置(図示を省略する)と通信を行うことにより、作業情報を取得したり更新したりする。
そして、作業情報管理部313は、このようにして取得及び更新した作業情報を作業情報記憶部352に記憶させる。すなわち、作業情報記憶部352は、作業情報を記憶する記憶部として機能する。
The work
Then, the work
なお、対象物情報管理部213及び対象物情報管理部311が管理する対象物情報や、作業情報管理部215及び作業情報管理部313が管理する作業情報は、上述したようにウェアラブル端末2、サーバ装置3、及び各事業者のサーバ間で通信する以外の方法で更新等されてもよい。例えば、ユーザUによる入力操作に基づいて、対象物情報や作業情報が追加や修正されることにより更新等されてもよい。
The object information managed by the object
[状態判定処理]
本実施形態における、状態判定装置1、ウェアラブル端末2、及びサーバ装置3の構成について詳細に説明した。次に、これら各装置を含む状態判定システムSが実行する状態判定処理に含まれる各処理の処理内容について、図11、図12、図13及び図16のフローチャートを参照して説明する。図11は、状態判定処理における前処理の流れを説明するフローチャートである。図12は、状態判定処理における把持開始処理の流れを説明するフローチャートである。図13は、状態判定処理における判定処理の流れを説明するフローチャートである。図16は、状態判定処理における把持終了処理の流れを説明するフローチャートである。なお、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理や、作業情報管理部215及び作業情報管理部313による作業情報の管理は、別途行われているものとする。
[Status judgment process]
The configurations of the
状態判定処理は、ユーザUからの、ウェアラブル端末2に対する状態判定処理の開始指示操作に伴い実行される。なお、本指示操作も含め、例えば、後述のステップS1やステップS6等における指示操作は、ユーザUによる、音声からなる指示やジェスチャーからなる指示操作に基づいて行われてもよい点については上述した通りである。
The state determination process is executed in accordance with the start instruction operation of the state determination process for the
まず、図11を参照すると、ステップS1において、対象物撮影部212は、ユーザUからの撮影指示操作に基づいて、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした検査対象物画像データを生成する。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3に対して送信する。
First, referring to FIG. 11, in step S1, the
In step S2, the
ステップS3において、識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。この場合に、識別部312は、識別結果のみならず、この識別結果に対応する検査対象物4の対象物情報を対象物情報管理部351から読み出し、この対象物情報もウェアラブル端末2に対して送信する。ただし、識別部312が識別結果のみを送信し、これを受信したウェアラブル端末2が対象物情報記憶部251から対象物情報を読み出すようにしてもよい。
In step S3, the
In step S4, the
ステップS5において、通知部214は、識別結果に対応する対象物情報をユーザUに対して通知する。例えば、対象物情報に含まれている、製品名や、外観(すなわち、包装容器)の画像データを表示等することにより通知する。
In step S5, the
ステップS6において、通知部214は、サーバ装置3による識別結果は正しいか否かを判定する。この判定は、ステップS5における通知内容と、実物の検査対象物4とを見比べたユーザUから、識別結果が正しい旨の操作を受け付けたか否かに基づいて行われる。識別結果が正しい旨の操作を受け付けた場合は、ステップS6においてYesと判定され、処理はステップS7に進む。一方で、識別結果が正しい旨の操作を受け付けない場合は、ステップS6においてNoと判定され、処理はステップS1に戻り、ステップS1の撮影から再度繰り返される。
In step S6, the
ステップS7において、対象物情報管理部213は、識別結果に対応する対象物情報を状態判定装置1に対して送信する。
ステップS8において、判定基準設定部113は、識別結果に対応する対象物情報に含まれる所定の閾値を、検査対象物4が破損しているか否かを判定するための基準となる閾値として設定する。なお、詳細は後述するが、本実施形態では、判定するための基準となる閾値として、第1閾値と、第2閾値の2つの閾値を設定する。
In step S7, the object
In step S8, the determination
ステップS9において、判定基準設定部113は、基準となる閾値の設定が終了した旨をウェアラブル端末2に対して送信する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
In step S9, the determination
In step S10, the
ステップS11において、通知部214は、識別結果に対応する対象物情報に含まれる検査時に把持機構65において把持すべき位置の画像データをユーザUに対して通知する。この場合に、例えば、単に把持すべき位置の画像データを包装容器の画像データと共に表示してもよい。
しかしながら、これに限らず、複合現実の技術を用いて、把持すべき位置の画像データと実物の包装容器の位置とが適合するように重畳表示してもよい。この場合に、さらに、「把持を開始して下さい。」といった旨のテキストを表示したり音声を出力したりするようにしてもよい。このようにすると、ユーザUが把持すべき位置や把持を開始するタイミングが容易に認識することが可能となる。
In step S11, the
However, the present invention is not limited to this, and the image data of the position to be gripped may be superimposed and displayed so as to match the position of the actual packaging container by using the technique of mixed reality. In this case, a text such as "Please start gripping" may be displayed or a voice may be output. By doing so, it becomes possible for the user U to easily recognize the position to be gripped and the timing to start gripping.
このステップS11による通知に伴い、ユーザUは、検査対象物4を把持するために、操作機構55に対する操作を開始する。
With the notification in step S11, the user U starts an operation on the
次に、図12を参照すると、ステップS12において、動作制御部111は、ユーザUの操作機構55に対する操作に応じて、マスタ装置として動作するマスタ側ユニット50や、スレーブ装置として動作するスレーブ側ユニット60に対して、力・触覚伝達機能を適用した動作の制御を開始する。この動作制御は、ユーザUの操作機構55に対する操作が終了するまで(例えば、後述のステップS33まで)継続する。
Next, referring to FIG. 12, in step S12, the
ステップS13において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
ステップS14において、ステップS13にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上であるか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態であることを確認する意図で行われる。従って、第1閾値は、把持機構65により検査対象物4を把持することが可能な力の値以上の値に設定される。なお、検査対象物4の種類により、把持することが可能な力の値は異なる。そのため、上述したように、本実施形態では、検査対象物4の種類により、第1閾値を異ならせている。
In step S13, the
In step S14, it is determined whether or not the value indicating the force in the control parameter related to the force-tactile sensation acquired in step S13 is equal to or greater than the first threshold value. This determination is made with the intention of confirming that the
なお、第1閾値と比較する、本判定での「力を示す値」とは、例えば、スレーブ側アクチュエータ62に含まれる第1アクチュエータにより把持機構65に含まれる第1把持部材を移動させ、スレーブ側アクチュエータ62に含まれる第2アクチュエータにより把持機構65に含まれる第2把持部材を移動させ、これら第1把持部材と、第2把持部材の距離を縮めることにより(例えば、閉じることにより)把持を行うような構成の場合には、第1アクチュエータに対応する力を示す値と、第2アクチュエータに対応する力を示す値のそれぞれとなる。
The "value indicating the force" in this determination to be compared with the first threshold value is, for example, the slave by moving the first gripping member included in the
力を示す値が第1閾値以上である場合は、ステップS14においてYesと判定され、処理はステップS16に進む。一方で、力を示す値が第1閾値未満である場合は、ステップS14においてNoと判定され、処理はステップS15に進む。 If the value indicating the force is equal to or greater than the first threshold value, Yes is determined in step S14, and the process proceeds to step S16. On the other hand, if the value indicating the force is less than the first threshold value, it is determined as No in step S14, and the process proceeds to step S15.
なお、上述したように、判定部114は、力を示す値が、第1閾値以上であるか否かを判定しており、力を示す値の上限については判定していない。しかしながら、第1閾値以上である場合で、且つ、過剰な力で把持されてしまうと、判定の条件が一定せず、安定した精度での判定が困難となる。また、もともと破損していない検査対象物4であったとしても、この把持が原因で破損してしまう可能性がある。そこで、このように、判定の精度が不安定となることや、破損が発生することを防止するために、把持における力が過剰とならないように(すなわち、把持における力が一定の強さ以上とならないように)抑制する処理をさらに行うようにするとよい。
As described above, the
そのためには、例えば、動作制御部111による動作の制御において、上述した(スケーリング機能)を適用する。このスケーリング機能を適用した場合、基準となる制御に対して、出力される力のスケールを拡大あるいは縮小することができる。そして、動作制御部111は、このスケーリング機能によって、力を示す値が所定値以上となった場合には、マスタ装置の動きの強さ(力)を縮小してスレーブ装置で再現する。すなわち、動作制御部111は、マスタ装置の動きの強さ(力)が過剰となったとしても、これを縮小してスレーブ装置では所定の動きの強さ(力)以上とならないように動作を制御する。これにより、仮にマスタ装置において過剰な力での操作があった場合でも、スレーブ側ユニット60及び把持機構65における把持は過剰な力にならないように抑制される。そのため、判定の精度が不安定となることや、把持が原因で、もともと破損していない検査対象物4が破損してしまうことを防止することができる。
For that purpose, for example, the above-mentioned (scaling function) is applied in the operation control by the
ステップS15において、判定部114は、ステップS13~ステップS17にて用いるカウンタの値をリセットする。そして、処理はステップS13に戻り、繰り返される。これは、把持機構65により検査対象物4が未だ把持されていない状態であるため、カウンタの値をリセットする意図で行われる処理である。
In step S15, the
ステップS16において、判定部114は、カウンタの値を1つカウントアップする。
ステップS17において、判定部114は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS17においてYesと判定され、処理はステップS18に進む。一方で、到達していない場合は、ステップS17においてNoと判定され、処理はステップS13に戻り、繰り返される。これは、力が第1閾値以上の状態が所定時間継続しているということから、把持が適切に行われており次の処理に以降できることを確認する意図で行われる処理である。
In step S16, the
In step S17, the
ステップS18において、判定部114は、ステップS13を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された制御パラメータは、その後、検査対象物4の種類に応じた第1閾値の値を修正する場面等で、ユーザUが参考するために利用される。
In step S18, the
ステップS19において、判定部114は、検査対象物4が破損しているか否かの判定を開始する旨をウェアラブル端末2に対して送信する。
ステップS20において、通知部214は、状態判定装置1の状態を示すスターテスを「判定中」として、ユーザUに対して通知する。
In step S19, the
In step S20, the
次に、図13を参照すると、ステップS21において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
ステップS22において、判定部114は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。
Next, referring to FIG. 13, in step S21, the
In step S22, the
力を示す値が第1閾値以上を維持している場合は、ステップS22においてYesと判定され、処理はステップS25に進む。一方で、力を示す値が第1閾値以上を維持していない場合(すなわち、力を示す値が第1閾値未満の場合)は、ステップS22においてNoと判定され、処理はステップS24に進む。 When the value indicating the force maintains the first threshold value or more, it is determined as Yes in step S22, and the process proceeds to step S25. On the other hand, when the value indicating the force does not maintain the first threshold value or more (that is, when the value indicating the force is less than the first threshold value), it is determined as No in step S22, and the process proceeds to step S24.
ステップS23において、判定部114は、検査対象物4の把持の失敗を検出した旨をウェアラブル端末2に対して送信する。
ステップS24において、通知部214は、状態判定装置1の状態を示すスターテスを「エラー及びリトライ」として、ユーザUに対して通知する。そして、処理はステップS10に戻り、繰り返される。
In step S23, the
In step S24, the
ステップS25において、判定部114は、ステップS21にて取得した力触覚に関する制御パラメータにおける位置を示す値が第2閾値未満であるか否かを判定する。この判定は、把持機構65により検査対象物4が破損していない状態であること確認する意図で行われる処理である。
In step S25, the
この点、検査対象物4が破損していないのであれば、内容物である二酸化炭素や窒素ガスといった気体の漏れ(いわゆる空気漏れ)や食品等の流出は発生しない。そのため、把持が継続したとしても、検査対象物4である包装容器は、所定の基準以上は潰れないはずである。これに対して、検査対象物4が破損しているのであれば、内容物である二酸化炭素や窒素ガスといった気体の漏れ(いわゆる空気漏れ)や食品等の流出が発生する。そのため、把持が継続すると、検査対象物4である包装容器は、所定の基準以上に潰れてしまう。
In this respect, if the
従って、第2閾値は、検査対象物4が破損していないのであれば、把持機構65により検査対象物4を把持した場合に、位置を示す値がそれ未満とはならない値(すなわち、上述の所定の基準以上潰れないと移動しないはずの位置を示す値)に設定される。例えば、把持機構65が開閉することにより、検査対象物4を把持するような場合に、検査対象物4が破損していないのであれば、それ以上閉まらないはずの位置を示す位置を示す値が第2閾値に設定される。なお、検査対象物4の種類により、上述の所定の基準は異なる。そのため、上述したように、本実施形態では、検査対象物4の種類により、第2閾値を異ならせている。
Therefore, the second threshold value is a value at which the value indicating the position does not become less than that when the
なお、第2閾値と比較する、本判定での「位置を示す値」とは、例えば、把持を開始する前のアクチュエータの位置を基準とした相対値となる。例えば、把持機構65に含まれる把持部材が開閉することで把持をする機構である場合、把持を開始する前の開いた状態でのアクチュエータの位置を基準とした相対値となる。
この場合に、判定の精度をより高めるには、基準となる、把持を開始する前の状態が毎回同じ状態であることが望ましい。そこで、例えば、動作制御部111による動作の制御において、力を示す値が所定値未満であり、把持が行われていないことが検出された場合には、スレーブ側アクチュエータ62を制御することにより把持機構65に含まれる把持部材が毎回同じ位置に移動するような制御を行う。例えば、把持機構65に含まれる把持部材が開閉することで把持をする機構である場合、毎回同じ広さで開くようにスレーブ側アクチュエータ62を制御する。これにより、基準となる、把持を開始する前の状態が毎回同じ状態となるので、判定の精度をより高めることが可能となる。
The "value indicating the position" in this determination to be compared with the second threshold value is, for example, a relative value based on the position of the actuator before the start of gripping. For example, in the case of a mechanism for gripping by opening and closing the gripping member included in the
In this case, in order to further improve the accuracy of the determination, it is desirable that the reference state before the start of gripping is the same every time. Therefore, for example, in the operation control by the
なお、他の方法として、本判定での「位置を示す値」とは、例えば、スレーブ側アクチュエータ62に含まれる第1アクチュエータにより把持機構65に含まれる第1把持部材を移動させ、スレーブ側アクチュエータ62に含まれる第2アクチュエータにより把持機構65に含まれる第2把持部材を移動させ、これら第1把持部材と、第2把持部材の距離を縮めることにより(例えば、閉じることにより)把持を行うような構成の場合には、第1アクチュエータに対応する位置を示す値と、第2アクチュエータに対応する位置を示す値の、他方を基準とした相対値としてもよい。
As another method, the "value indicating the position" in this determination means, for example, that the first gripping member included in the
位置を示す値が第2閾値未満である場合は、ステップS25においてYesと判定され、処理はステップS28に進む。これは、位置が第2閾値未満の状態となっており、検査対象物4が所定の基準以上は潰れている状態のままであることから、検査対象物4が破損したと判定した意図で行われる処理である。一方で、位置を示す値が第2閾値未満である場合は、ステップS25においてNoと判定され、処理はステップS26に進む。
If the value indicating the position is less than the second threshold value, it is determined as Yes in step S25, and the process proceeds to step S28. This is because the position is less than the second threshold value and the
ステップS26において、判定部114は、ステップS21~ステップS27にて用いるカウンタの値を1つカウントアップする。
ステップS27において、判定部114は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、位置が第2閾値未満とならない状態が所定時間継続しており、把持が行われても検査対象物4が所定の基準以上は潰れない状態のままであるので、検査対象物4が破損していないということを確認する意図で行われる処理である。
In step S26, the
In step S27, the
上述したように、判定部114は、力を示す値が第1閾値を維持している状態で、且つ、位置を示す値が第2閾値未満とならないか、に基づいて検査対象物4の破損に関する判定を行う。すなわち、把持における力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて判定を行う。このように、判定部114は、力触覚に関する制御パラメータに基づいて、把持におけるインピーダンスを適切に特定し、所定の基準(ここでは、力を一定として接触した場合の移動量という基準)という客観的な指標に基づいた判定を行うことにより、安定した精度での判定を実現することができる。
As described above, the
ステップS28において、判定部114は、ステップS21を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された制御パラメータは、その後、検査対象物4の種類に応じた第2閾値の値を修正する場面等で、ユーザUが参考するために利用される。
In step S28, the
ステップS29において、判定部114は、検査対象物4が破損しているか否かの判定結果をウェアラブル端末2に対して送信する。ここで、ステップS25においてYesと判定された後に行われるステップS29では、送信される判定結果は「検査対象物4が破損している。」というものになる。一方で、ステップS27においてYesと判定された後に行われるステップS29では、送信される判定結果は「検査対象物4が破損していない。」というものになる。
In step S29, the
ステップS30において、通知部214は、判定結果をユーザUに対して通知する。例えば、判定結果である「検査対象物4が破損している。」という旨、又は「検査対象物4が破損していない。」という旨の何れかを示すテキストを表示したり音声を出力したりする。
ステップS31において、通知部214は、作業情報をユーザUに対して通知する。例えば、この作業情報は、判定結果に応じたものとし、ユーザUが次に行うべき作業を具体的に指示する内容とする。
In step S30, the
In step S31, the
これらステップS30及びステップS31における通知の具体例について、図14及び図15を参照して説明をする。図14は、検査対象物4が破損していないと判定された場合の通知例を示す模式図である。図15は、検査対象物4が破損していると判定された場合の通知例を示す模式図である。
Specific examples of the notifications in steps S30 and S31 will be described with reference to FIGS. 14 and 15. FIG. 14 is a schematic diagram showing a notification example when it is determined that the
図14に、出力部27に含まれる透過型ディスプレイを示す。このディスプレイは透過型であるので、ユーザUは、ディスプレイを介して自身が操作する状態判定装置1と、この状態判定装置1で把持している検査対象物4と、格納先となるコンテナと、の実物を視認することができる。なお、図14及び図15では、これらディスプレイを透過して視認される実物を破線で表す。加えて、ディスプレイ上には、通知部214により通知された情報が表示される。具体的に、ディスプレイ上の領域AR1には、検査対象物4が破損していないという判定結果に対応する「OK」というテキストや、位置を示す値(図中では「測定値」)が、第2閾値(図中では「閾値」)未満であることを示すテキストが表示される。また、ディスプレイ上の領域AR2には、作業において格納すべき各製品の数と、格納すべき数に不足している製品の数とが表示される。この表示は、作業情報記憶部252に記憶されている作業情報等に基づいて生成することができる。さらに、ディスプレイ上の領域AR3には、ユーザUが次に行うべき作業を具体的に指示する内容として「コンテナABCに格納」という検査対象物4の格納先を示すテキストが表示される。
FIG. 14 shows a transmissive display included in the
図15にも、出力部27に含まれる透過型ディスプレイを示す。ユーザUは、ディスプレイを介して自身が操作する状態判定装置1と、この状態判定装置1で把持している検査対象物4と、廃棄先となるコンテナと、の実物を視認することができる。加えて、ディスプレイ上の領域AR4には、検査対象物4が破損しているという判定結果に対応する「NG」というテキストや、位置を示す値(図中では「測定値」)が、第2閾値(図中では「閾値」)を超えたことを示すテキストが表示される。また、ディスプレイ上の領域AR5には、ユーザUが次に行うべき作業を具体的に指示する内容として「廃棄コンテナに廃棄」という検査対象物4の廃棄先を示すテキストが表示される。
FIG. 15 also shows a transmissive display included in the
ユーザUは、これら図14や図15に例示したような表示を参照することにより、判定結果や、作業の進捗状況や、自身が次に行うべき作業、といった様々な情報を容易に把握することができる。すなわち、本実施形態では、力触覚を伝達する技術と、複合現実の技術を組み合わせて、ユーザUの検査等における作業や判断を補助(すなわち、サポート)することができる。また、検査作業を、仕分けやピッキングといった作業と並行して行うことができるので、作業工程を圧縮することができる。 By referring to the displays as illustrated in FIGS. 14 and 15, the user U can easily grasp various information such as the determination result, the progress of the work, and the work to be performed next by the user U. Can be done. That is, in the present embodiment, the technique of transmitting force and tactile sensation and the technique of mixed reality can be combined to assist (that is, support) the work and judgment in the inspection and the like of the user U. Further, since the inspection work can be performed in parallel with the work such as sorting and picking, the work process can be compressed.
次に、図16を参照すると、ステップS32において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
ステップS33において、判定部114は、ステップS32にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値未満か否かを判定する。この判定は、ユーザUが図15や図16のような通知を参照して作業を完了し(例えば、検査対象物4をコンテナに格納し)、把持機構65により検査対象物4が把持されている状態が終了したことを確認する意図で行われる。
Next, referring to FIG. 16, in step S32, the
In step S33, the
力を示す値が第1閾値未満の場合は、ステップS33においてYesと判定され、処理はステップS34に進む。一方で、力を示す値が第1閾値以上の場合(すなわち、未だ把持が継続している場合)は、ステップS33においてNoと判定され、処理はステップS32に戻り、判定を繰り返す。 If the value indicating the force is less than the first threshold value, Yes is determined in step S33, and the process proceeds to step S34. On the other hand, when the value indicating the force is equal to or higher than the first threshold value (that is, when the grip is still continued), No is determined in step S33, the process returns to step S32, and the determination is repeated.
ステップS34において、判定部114は、ステップS32を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された制御パラメータは、その後、検査対象物4の種類に応じた第1閾値の値を修正する場面等で、ユーザUが参考するために利用される。
In step S34, the
ステップS35において、判定部114は、一連の状態判定処理が終了した旨をウェアラブル端末2に対して送信する。
ステップS30において、通知部214は、一連の状態判定処理が終了したことをユーザUに対して通知する。
ステップS37において、通知部214は、状態判定装置1の状態を示すスターテスを初期化する。
In step S35, the
In step S30, the
In step S37, the
ステップS38において、作業情報管理部215は、今回の作業内容を反映して、作業情報記憶部252が記憶する作業情報を更新する。例えば、検査対象物4が破損しておらず、コンテナに格納されたのであれば、このコンテナの現在の格納数を増加させる。あるいは、検査対象物4が破損しており、廃棄されたのであれば、廃棄数を増加させる。また、これらの作業を行ったユーザUの識別情報や、作業終了時刻等の情報も追加する。
ステップS39において、作業情報管理部215は、更新後の作業情報をサーバ装置3に対して送信する。
In step S38, the work
In step S39, the work
ステップS40において、作業情報管理部313は、受信した更新後の作業情報に基づいて、作業情報記憶部352が記憶する作業情報を更新する。これにより、本処理は終了する。このように、ステップS38~ステップS40の処理を行うことにより、ユーザUの検査等における作業や判断を補助(すなわち、サポート)するのみならず、現在の作業情報を簡便に更新したり、最終的な作業履歴を簡便に作成したりすることが可能となる。
In step S40, the work
以上説明した、状態判定処理によれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
また、状態判定処理によれば、検査作業を、仕分けやピッキングといった作業と並行して行うことができる、すなわち、作業工程を圧縮することができる。
According to the state determination process described above, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
Further, according to the state determination process, the inspection work can be performed in parallel with the work such as sorting and picking, that is, the work process can be compressed.
<第2実施形態>
以上、本発明の第1実施形態について説明した。続いて、本発明の第2実施形態について以下説明をする。以下では、第1実施形態とは相違する、第2実施形態特有の構成や処理内容について特に詳細に説明する。一方で、第1実施形態と第2実施形態とで重複する内容については、再度の説明を適宜省略する。
<Second Embodiment>
The first embodiment of the present invention has been described above. Subsequently, the second embodiment of the present invention will be described below. Hereinafter, the configuration and processing contents peculiar to the second embodiment, which are different from the first embodiment, will be described in particular detail. On the other hand, the contents overlapping between the first embodiment and the second embodiment will be omitted again as appropriate.
[第1実施形態との相違点の概要]
まず、第1実施形態と第2実施形態との相違点について簡略に説明する。第1実施形態では、状態判定処理を実施する場合に、ステップS25において、力触覚に関する制御パラメータと、第2閾値とを比較することで、検査対象物4の破損に関する判定をしていた。
[Summary of differences from the first embodiment]
First, the differences between the first embodiment and the second embodiment will be briefly described. In the first embodiment, when the state determination process is performed, in step S25, the damage of the
これに対して、第2実施形態では、状態判定処理を実施するに先立って、予め「機械学習処理」を実施する。ここで、機械学習処理は、力触覚に関する制御パラメータと、検査対象物4の破損に関する判定結果との組を教師データとした機械学習をすることで、力触覚に関する制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルを構築する一連の処理である。
そして、第2実施形態では、機械学習処理の後に、状態判定処理を実施する。この状態判定処理では、機械学習処理において構築した機械学習モデルに対して、判定対象とする検査対象物4の把持時に動作制御部111が動作制御において用いた力触覚に関する制御パラメータを入力することで破損に関する判定を行う。
これにより、第2実施形態では、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標に基づいて判定をすることとなり、より安定した精度での検査を実現することができる。
On the other hand, in the second embodiment, the "machine learning process" is performed in advance before the state determination process is performed. Here, in the machine learning process, the control parameters related to the force-tactile sensation and the
Then, in the second embodiment, the state determination process is performed after the machine learning process. In this state determination process, the control parameters related to the force-tactile sensation used in the motion control by the
As a result, in the second embodiment, the judgment is made based on an objective index called a machine learning model in which the relationship between the control parameter and the judgment result regarding the damage of the
[システム構成]、[制御対象装置に対する動作制御]及び[状態判定装置の構成]
本実施形態に係る状態判定システムSの全体構成は、図1を参照して説明した第1実施形態の全体構成と同様である。また、検査対象物4として、食品(例えば、ポテトチップス等のお菓子)等を内容物として包装する包装容器であることを想定する点や、力触覚に関する制御パラメータとして位置を示す値を想定する点も第1実施形態と同様である。
さらに、本実施形態における、制御対象装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、操作機構55、スレーブ側ユニット60、及び把持機構65)に対する動作制御の基本的原理についても、図2~図6を参照して説明した第1実施形態の動作制御の基本的原理と同様である。
さらに、本実施形態における、状態判定装置1の基本的構成についても、制御ユニット10以外については、図7を参照して説明した第1実施形態の状態判定装置1の基本的構成と同様である。
したがって、これらの点について、重複する説明を省略する。
[System configuration], [Operation control for controlled device] and [Status determination device configuration]
The overall configuration of the state determination system S according to the present embodiment is the same as the overall configuration of the first embodiment described with reference to FIG. Further, it is assumed that the
Further, the basic principle of operation control for the controlled object device (here, the
Further, the basic configuration of the
Therefore, duplicate description of these points will be omitted.
本実施形態において、制御ユニット10(以下、本実施形態における制御ユニット10を「制御ユニット10a」と称する。)は、マスタ側ユニット50のマスタ装置としての動作や、スレーブ側ユニット60のスレーブ装置としての動作を制御することにより把持装置としての機能を実現すると共に、さらに、ウェアラブル端末2やサーバ装置3と協働することで、上述した機械学習処理や状態判定処理を行なう。
In the present embodiment, the control unit 10 (hereinafter, the
図17は、この機械学習処理や状態判定処理を実現するための、制御ユニット10aのハードウェア及び機能ブロックの一例を示すブロック図である。本実施形態の制御ユニット10aは、第1実施形態の制御ユニット10との相違点として、ハードウェアとしてセンサ19をさらに含む。
FIG. 17 is a block diagram showing an example of hardware and functional blocks of the control unit 10a for realizing the machine learning process and the state determination process. The control unit 10a of the present embodiment further includes a
センサ19は、制御ユニット10aを備えた状態判定装置1の周囲の環境を示す情報として、状態判定装置1の周囲の温度(すなわち、気温)、湿度及び気圧を計測するセンサ群により構成される。センサ19による計測は、例えば、機械学習処理や状態判定処理において、制御ユニット10aが状態判定装置1を把持装置として機能させて、検査対象物4を把持している間に行われる。センサ19における計測結果は、適宜プロセッサ11に対して出力される。
The
このようなハードウェア構成において、機械学習処理や状態判定処理を実現する場合、図17に示すようにプロセッサ11にて、動作制御部111と、パラメータ取得部112と、正解情報取得部115と、環境情報取得部116と、処理部117と、が機能する。このように、本実施形態の制御ユニット10aでは、第1実施形態の制御ユニット10との相違点として、正解情報取得部115と、環境情報取得部116と、処理部117と、が機能する一方で、判定基準設定部113と、判定部114と、は機能しない。
また、このようなハードウェア構成において、機械学習処理や状態判定処理を実現する場合、図17に示すように記憶部15の一領域には、パラメータ記憶部151と、正解情報記憶部153と、環境情報記憶部154と、が設定される。このように、本実施形態の制御ユニット10aでは、第1実施形態の制御ユニット10との相違点として、正解情報記憶部153と、環境情報記憶部154と、が設定される一方で、判定基準記憶部152は設定されない。
When machine learning processing and state determination processing are realized in such a hardware configuration, as shown in FIG. 17, the
Further, in the case of realizing machine learning processing and state determination processing in such a hardware configuration, as shown in FIG. 17, one area of the
正解情報取得部115は、機械学習処理にて教師データの一部として用いる「正解情報」を取得する。機械学習処理では、機械学習を行うための教師データを作成する目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。そして、正解情報は、この把持をした検査対象物4が破損しているか否かについての判定結果であり、機械学習において正解を示す情報(すなわち、正解を示すラベル)として用いられる。
The correct answer
正解情報は、例えば、熟練者であるユーザUが、把持機構65が検査対象物4を把持した際の操作機構55に対する反力のフィードバックに基づいて判定した、検査対象物4が破損しているか否かという判定結果である。これにより、例えば、熟練者であるユーザUが通常の作業の一環として検査対象物4への検査を行うのみで、さらに教師データを収集することもできる。あるいは、正解情報は、例えば、予め検査対象物4が破損しているか否かという判定結果を把握しているユーザUによる判定結果である。正解情報は、機械学習における正解を示す情報として用いられるので、機械学習の精度を高めるために、ユーザUによる正しい判断結果のみを正解情報として取得する。
The correct answer information is, for example, whether the
このような正解情報は、例えば、ウェアラブル端末2が、ユーザUから音声からなる指示やジェスチャーからなる指示操作を受け付けることにより入力され、ネットワークNを介した通信により、正解情報取得部115に取得される。
そして、正解情報取得部115は、このようにして取得した正解情報を、教師データの一部として正解情報記憶部153に記憶させる。すなわち、正解情報記憶部153は、正解情報を記憶する記憶部として機能する。
Such correct answer information is input, for example, by the
Then, the correct answer
環境情報取得部116は、機械学習処理にて教師データの一部として用いたり、状態判定処理における入力データの一部として用いたりする「環境情報」を取得する。
上述したように、機械学習処理では、機械学習を行うための教師データを作成する目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。また、状態判定処理においても、検査対象物4の破損に関する判定をする目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。
環境情報は、これらの把持をした際に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧である。
The environmental
As described above, in the machine learning process, the
The environmental information is the temperature, humidity, and atmospheric pressure around the
本実施形態において、環境情報を用いる理由について説明する。一般に、気圧の変化と温度の変化は関連性を有することが知られている。例えば、気圧が低下すると温度も低下する。そして、これらの気圧や温度が、これらが上がるあるいは下がることにより、包装容器である検査対象物4内部の気体が収縮あるいは膨張する。例えば、検査対象物4を高地に運搬した場合に、周囲の気圧や温度が下がることに伴い、検査対象物4内の気体が膨張する結果、検査対象物4自体も膨張する。このような事象が発生することから、気圧や温度は、把持を行った場合の力触覚に関する制御パラメータの値の変化に影響を与える。
The reason for using the environmental information in this embodiment will be described. It is generally known that changes in barometric pressure and changes in temperature are related. For example, when the atmospheric pressure drops, the temperature also drops. Then, when these atmospheric pressures and temperatures rise or fall, the gas inside the
また、湿度については、例えば、湿気により内容物が腐敗し体積が増したり、温度や気圧の変化と連動して包装容器内の水蒸気が増えて容器が膨張したりするといった事象が発生し、これも把持を行った場合の力触覚に関する制御パラメータの値の変化に影響を与え得る。
そこで、本実施形態では、このような環境の違いに起因する、力触覚に関する制御パラメータの値の変化への影響も考慮し、状態判定装置1の周囲の温度、湿度及び気圧といった環境情報を教師データの一部として機械学習を行う。これにより、より精度高く判定を行うことが可能な機械学習モデルを構築し、破損に関する判定を行うことができる。
Regarding humidity, for example, the contents rot due to humidity and the volume increases, and the water vapor in the packaging container increases in conjunction with changes in temperature and atmospheric pressure, causing the container to expand. Can also affect changes in the values of control parameters related to force and tactile sensation when gripping.
Therefore, in the present embodiment, environmental information such as the ambient temperature, humidity, and atmospheric pressure of the
このような環境情報は、例えば、センサ19により測定され、環境情報取得部116に取得される。
そして、環境情報取得部116は、このようにして取得した環境情報を、教師データの一部や入力データの一部として環境情報記憶部154に記憶させる。すなわち、環境情報記憶部154は、環境情報を記憶する記憶部として機能する。
Such environmental information is measured by, for example, the
Then, the environmental
なお、正解情報取得部115や環境情報取得部116による、正解情報の取得や環境情報を取得と並行して、パラメータ取得部112による力触覚に関する制御パラメータの取得も行われる。
そして、パラメータ取得部112は、この取得した力触覚に関する制御パラメータを、教師データの一部として用いたり、状態判定処理における入力データの一部として用いたりするためにパラメータ記憶部151に記憶させる。すなわち、パラメータ記憶部151は、力触覚に関する制御パラメータを記憶する記憶部として機能する。
In addition, in parallel with the acquisition of the correct answer information and the acquisition of the environmental information by the correct answer
Then, the
処理部117は、機械学習処理や状態判定処理において、他の装置と種々の情報を送受する、というような種々の処理を実行する。例えば、機械学習処理において、処理部117は、教師データを作成するために或る検査対象物4を把持した際に、パラメータ取得部112により取得された力触覚に関する制御パラメータ、正解情報取得部115により取得された正解情報(すなわち、正解を示すラベル)、及び環境情報取得部116により取得された環境情報のそれぞれを対応する記憶部から読み出して組とする。そして、処理部117は、この組とした情報を教師データとして、サーバ装置3に対して送信する。
The
他にも、例えば、状態判定処理において、処理部117は、判定対象とする検査対象物4を把持した際に、パラメータ取得部112により取得された力触覚に関する制御パラメータ、及び環境情報取得部116により取得された環境情報のそれぞれを対応する記憶部から読み出して組とする。そして、処理部117は、この組とした情報を入力データとして、サーバ装置3に対して送信する。
サーバ装置3による、この教師データを用いた機械学習方法や、この入力データを用いた判定方法については、図18のブロック図を参照して後述する。
In addition, for example, in the state determination process, the
The machine learning method using the teacher data and the determination method using the input data by the
[ウェアラブル端末の構成]
本実施形態における、ウェアラブル端末2のハードウェア及び機能ブロックについては、図9を参照して説明した第1実施形態のウェアラブル端末2のハードウェア及び機能ブロックと同様である。したがって、この点について、重複する説明を省略する。なお、ウェアラブル端末2の処理の一部は、第1実施形態と異なるが、この点については、図19~図22のフローチャートを参照して後述する。
[Wearable device configuration]
The hardware and functional blocks of the
[サーバ装置の構成]
次に、サーバ装置3(以下、本実施形態におけるサーバ装置3を「サーバ装置3a」と称する。)の構成について、図18を参照して説明をする。図18は、サーバ装置3aのハードウェア及び機能ブロックの一例を示すブロック図である。図18に示すように、サーバ装置3aは、第1実施形態のサーバ装置3と同様のハードウェアを備える。
[Server device configuration]
Next, the configuration of the server device 3 (hereinafter, the
このようなハードウェア構成において、機械学習や状態判定処理を実現する場合、図18に示すようにプロセッサ31にて、対象物情報管理部311と、識別部312と、作業情報管理部313と、機械学習部314と、判定部315と、が機能する。このように、本実施形態のサーバ装置3aでは、第1実施形態のサーバ装置3との相違点として、機械学習部314と、判定部315と、が機能する
また、この場合、図18に示すように記憶部35の一領域には、対象物情報管理部351と、作業情報記憶部352と、教師データ記憶部353と、学習モデル記憶部354と、が設定される。このように、本実施形態のサーバ装置3aでは、第1実施形態のサーバ装置3との相違点として、教師データ記憶部353と、学習モデル記憶部354と、が設定される
When machine learning and state determination processing are realized in such a hardware configuration, as shown in FIG. 18, the object
機械学習部314は、機械学習処理において、機械学習を行うことにより、検査対象物4の破損に関する判定を行うための機械学習モデルを構築する。
そのために、機械学習部314は、まず状態判定装置1から教師データを取得する。上述したように、この教師データは、教師データを作成するために或る検査対象物4を把持した際に取得された、力触覚に関する制御パラメータ、正解情報(すなわち、正解を示すラベル)、及び環境情報を組としたものである。なお、教師データとして他の情報を用いてもよい。例えば、検査対象物4ではない物体を把持した際に取得された、力触覚に関する制御パラメータ、不正解を示すラベル、及び環境情報を組としたものを教師データとして用いてもよい。
The
Therefore, the
そして、機械学習部314は、この教師データを用いて、教師あり機械学習を行う。この場合、例えば、機械学習部314は、パーセプトロンを組み合わせて構成したニューラルネットワークにより、機械学習を行う。具体的には、教師データに含まれる力触覚に関する制御パラメータや環境情報といったデータの特徴量をニューラルネットワークの入力層に対して入力データとして与え、ニューラルネットワークの出力層の出力が正解情報(すなわち、正解を示すラベル)と同じとなるように、各パーセプトロンについての重み付けを変更しながら学習を繰り返す。
そして、機械学習部314は、所定の条件(例えば、出力が所定以上の高い精度で正解となることや、所定時間学習を繰り返したこと)が満たされた場合に、学習を終了し、その時点で構築された機械学習モデルを学習モデル記憶部354に記憶させる。
すなわち、学習モデル記憶部354は、機械学習モデルを記憶する記憶部として機能する。なお、構築とは、新たに機械学習モデルを作成することのみならず、学習モデル記憶部354が記憶している機械学習モデルに対して、新たな教師データを用いて再学習を行うことも含む。
Then, the
Then, the
That is, the learning
なお、機械学習の手法は必ずしも限定されず、例えば、ニアレストネイバー法、決定木、ランダムフォレスト、サポートベクターマシン等の分類問題に好適な他の手法を用いたりしてもよい。また、機械学習部314は、1つの機械学習モデルを構築するのみでもよいが、把持対象となった材質や大きさの異なる検査対象物4の種類それぞれに応じた、複数の機械学習モデルを構築してもよい。すなわち、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにしてもよい。
The machine learning method is not always limited, and other methods suitable for classification problems such as the nearest neighbor method, decision tree, random forest, and support vector machine may be used. Further, the
判定部315は、状態判定処理において、機械学習モデルを用いて、検査対象物4の破損に関する判定を行う。
そのために、判定部315は、まず状態判定装置1から判定用の入力データを取得する。上述したように、この入力データは、判定対象とする検査対象物4を把持した際に取得された、力触覚に関する制御パラメータ、及び環境情報を組としたものである。
そして、判定部315は、この入力データと、学習モデル記憶部354が記憶している機械学習モデルを用いて、検査対象物4の破損に関する判定を行う。なお、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにした場合には、当然のことながら、判定部315は、今回の判定対象の検査対象物4の種類に応じた機械学習モデルを用いて判定を行う。
In the state determination process, the
Therefore, the
Then, the
例えば、判定部315は、入力データを機械学習モデルに入力し、その出力を検査対象物4の破損に関する判定の判定結果とする。この場合、判定結果は、検査対象物4が破損しているか否かを示す情報となる。
また、判定部315は、このようにして機械学習モデルを用いた状態判定処理により、検査対象物4の破損に関する判定を行うと、その判定結果をウェアラブル端末2に対して送信する。そして、この判定結果は、ウェアラブル端末2から、ユーザに対して通知される。
For example, the
Further, when the
このように、本実施形態では、状態判定装置1によって検査対象物4を把持した際の力触覚に関する制御パラメータと、温度、湿度及び気圧といった環境情報とに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、本実施形態は、第1実施形態と同様に、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。
すなわち、本実施形態によれば、第1実施形態と同様に、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, in the present embodiment, the
That is, according to the present embodiment, as in the first embodiment, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
[機械学習処理]
本実施形態における、状態判定装置1(すなわち、制御ユニット10aを含む状態判定装置1)、ウェアラブル端末2、及びサーバ装置3aの構成について詳細に説明した。次にこれら各装置を含む状態判定システムSが実行する機械学習処理に含まれる各処理の処理内容について、図19及び図20のフローチャートを参照して説明する。図19は機械学習処理における前処理の流れを説明するフローチャートである。図20は、機械学習処理における構築処理の流れを説明するフローチャートである。
[Machine learning process]
The configurations of the state determination device 1 (that is, the
なお、この前処理の後に、把持開始処理が行われてから、さらに構築処理が行われる。この把持開始処理は、図12を参照して説明した第1実施形態の把持開始処理と同様である。したがって、この点について、重複する説明を省略する。また、本実施形態のフローチャート(すなわち、図19~22)において、第1実施形態のフローチャート(すなわち、図11、図12、図13及び図16)と同様の符号番号が付されているステップの処理内容は、第1実施形態における処理内容と同一である。したがって、これらのステップの処理内容の詳細の説明についても適宜省略する。
また、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理は、別途行われているものとする。
After this pretreatment, the gripping start processing is performed, and then the construction processing is further performed. This gripping start processing is the same as the gripping start processing of the first embodiment described with reference to FIG. Therefore, a duplicate description will be omitted on this point. Further, in the flowchart of the present embodiment (that is, FIGS. 19 to 22), the steps having the same reference numerals as those of the flowchart of the first embodiment (that is, FIGS. 11, 12, 13, and 16) are attached. The processing content is the same as the processing content in the first embodiment. Therefore, the detailed description of the processing contents of these steps will be omitted as appropriate.
Further, as a premise of the explanation, it is assumed that the object
機械学習処理は、ユーザUからの、ウェアラブル端末2に対する機械学習処理の開始操作に伴い実行される。なお、本指示操作も含め、例えば、後述のステップS1やステップS6等における指示操作は、ユーザUによる、音声からなる指示やジェスチャーからなる指示操作に基づいて行われてもよい点については上述した通りである。
The machine learning process is executed with the start operation of the machine learning process for the
まず、図19を参照すると、ステップS1において、対象物撮影部212は、ユーザUからの撮影指示操作に基づいて、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした検査対象物画像データを生成する。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3aに対して送信する。
First, referring to FIG. 19, in step S1, the
In step S2, the
ステップS3において、識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。
In step S3, the
In step S4, the
ステップS5において、通知部214は、識別結果に対応する対象物情報をユーザUに対して通知する。例えば、対象物情報に含まれている、製品名や、外観(すなわち、包装容器)の画像データを表示等することにより通知する。
In step S5, the
ステップS6において、通知部214は、サーバ装置3aによる識別結果は正しいか否かを判定する。識別結果が正しい旨の操作を受け付けた場合は、ステップS6においてYesと判定され、処理はステップS7に進む。一方で、識別結果が正しい旨の操作を受け付けない場合は、ステップS6においてNoと判定され、処理はステップS1に戻り、ステップS1の撮影から再度繰り返される。
In step S6, the
ステップS7において、対象物情報管理部213は、識別結果に対応する対象物情報を状態判定装置1に対して送信する。
ステップS51において、処理部117は、教師データ取得のために、後述する各種データを記録する記録モードに設定する。
In step S7, the object
In step S51, the
ステップS52において、処理部117は、記録モードへ設定した旨をウェアラブル端末2に対して送信する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
In step S52, the
In step S10, the
ステップS11において、通知部214は、識別結果に対応する対象物情報に含まれる検査時に把持機構65において把持すべき位置の画像データをユーザUに対して通知する。このステップS11による通知に伴い、ユーザUは、検査対象物4を把持するために、操作機構55に対する操作を開始する。
In step S11, the
その後、上述したように、図12を参照して説明した第1実施形態の把持開始処理と同様の、把持開始処理が行われる。そして、この把持開始処理が終了すると、構築処理が開始される。なお、第1実施形態の把持開始処理において判定部114が処理主体となって行っていたステップについては、本実施形態の把持開始処理では処理部117が処理主体となって行うものとする。
After that, as described above, the gripping start processing similar to the gripping start processing of the first embodiment described with reference to FIG. 12 is performed. Then, when the gripping start process is completed, the construction process is started. Regarding the step in which the
次に、図19を参照すると、ステップS21において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
Next, referring to FIG. 19, in step S21, the
ステップS22において、処理部117は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。
In step S22, the
力を示す値が第1閾値以上を維持している場合は、ステップS22においてYesと判定され、処理はステップS25に進む。一方で、力を示す値が第1閾値以上を維持していない場合(すなわち、力を示す値が第1閾値未満の場合)は、ステップS22においてNoと判定され、処理はステップS24に進む。 When the value indicating the force maintains the first threshold value or more, it is determined as Yes in step S22, and the process proceeds to step S25. On the other hand, when the value indicating the force does not maintain the first threshold value or more (that is, when the value indicating the force is less than the first threshold value), it is determined as No in step S22, and the process proceeds to step S24.
ステップS23において、処理部117は、検査対象物4の把持の失敗を検出した旨をウェアラブル端末2に対して送信する。
In step S23, the
ステップS26において、処理部117は、ステップS21~ステップS27にて用いるカウンタの値を1つカウントアップする。なお、構築処理では、状態判定装置1による判定は行う必要がないため、第1実施形態におけるステップS24及びステップS25は行わない。
ステップS27において、処理部117は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、力触覚に関する制御パラメータを、教師データとして必要なだけ取得する意図で行われる処理である。
In step S26, the
In step S27, the
ステップS28において、処理部117は、ステップS21を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された力触覚に関する制御パラメータは、その後、機械学習により、機械学習モデルを構築するための教師データの一部として利用される。
In step S28, the
ステップS61において、処理部117は、把持をした際(例えば、力触覚に関する制御パラメータが取得完了した時点)に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧を環境情報として取得し、環境情報記憶部154に記憶する。この記憶された環境情報は、その後、機械学習により、機械学習モデルを構築するための教師データの一部として利用される。
In step S61, the
ステップS62において、処理部117は、力触覚に関する制御パラメータと環境情報を取得して、測定完了した旨をウェアラブル端末2に対して送信する。
In step S62, the
ステップS63において、通知部214は、データ取得結果をユーザUに対して通知する。例えば、力触覚に関する制御パラメータに含まれる位置を示す値や、環境情報に含まれる状態判定装置1の周囲の温度、湿度及び気圧の値を、テキスト表示したり音声を出力したりする。これを参照したユーザUは、これら通知された各種情報の内容や、把持機構65が検査対象物4を把持した際の操作機構55に対する反力のフィードバックや、事前にユーザが把握している検査対象物4が破損しているか否かの情報に基づいて、検査対象物4が破損しているか否かを判定する。
In step S63, the
ステップS64において、処理部117は、ステップS63の通知を参照したユーザUから、検査対象物4が破損しているか否かの判定結果を正解情報として受け付ける。この正解情報の受け付けは、例えば、処理部117が、ユーザUから音声からなる指示やジェスチャーからなる指示操作を受け付けることにより実現される。
ステップS65において、処理部117は、ステップS64にて受け付けた正解情報を、状態判定装置1に対して送信する。
In step S64, the
In step S65, the
ステップS66において、処理部117は、ウェアラブル端末2から受信した正解情報を正解情報記憶部153に記憶すると共に、この正解情報(すなわち、正解を示すラベル)、ステップS28で記憶した力触覚に関する制御パラメータ、及びステップS61で記憶した環境情報を組として、教師データとしてサーバ装置3aに対して送信する。
In step S66, the
ステップS67において、機械学習部314は、状態判定装置1から受信した教師データを教師データ記憶部353に記憶する。
ステップS68において、機械学習部314は、ステップS67で記憶した教師データを用いて、所定の条件(例えば、出力が所定以上の高い精度で正解となることや、所定時間学習を繰り返したこと)が満たされるまで機械学習を行うことにより、検査対象物4の破損に関する判定を行うための機械学習モデルを構築する。
ステップS69において、機械学習部314は、ステップS68で構築した機械学習モデルを学習モデル記憶部354に記憶する。
In step S67, the
In step S68, the
In step S69, the
なお、本フローチャートでは、教師データを取得する都度、機械学習を行うことを想定しているがこれに限らない。例えば、教師データが複数取得されてある程度蓄積されてから、機械学習を行うようにしてもよい。あるいは、機械学習処理において、機械学習モデルを構築するのではなく、状態判定処理において判定を行う都度、機械学習モデルを構築するようにしてもよい。
また、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにする場合には、ステップS3での識別結果と、ステップS68で構築した機械学習モデルを紐付けて学習モデル記憶部354に記憶しておくようにする。これにより、状態判定処理において、検査対象物4の種類に応じた機械学習モデルを特定することが可能となる。
In this flowchart, it is assumed that machine learning is performed each time teacher data is acquired, but the present invention is not limited to this. For example, machine learning may be performed after a plurality of teacher data are acquired and accumulated to some extent. Alternatively, instead of constructing a machine learning model in the machine learning process, a machine learning model may be constructed each time a determination is made in the state determination process.
Further, when the machine learning model is used properly according to the type of the
ステップS70において、処理部117は、教師データの記憶が完了した旨をウェアラブル端末2に対して送信する。
ステップS71において、通知部214は、教師データの記憶が完了した旨をユーザUに対して通知する。
In step S70, the
In step S71, the
ステップS72において、通知部214は、引き続き別の検査対象物4の状態を記憶するか否か選択するよう、ユーザUに通知する。この通知に応じたユーザUから「別の検査対象物4の状態を記憶する」との回答を受け付けた場合は、ステップS72においてYesと判定され、処理は図19のステップS1に戻り繰り返される。一方で、ユーザUから「別の検査対象物4の状態を記憶しない」との回答を受け付けた場合は、ステップS72においてNoと判定され、本機械学習処理は終了する。なお、これらの回答の受け付けは、例えば、処理部117が、ユーザUから音声からなる指示やジェスチャーからなる指示操作を受け付けることにより実現される。
In step S72, the
[状態判定処理]
次に、状態判定装置1、ウェアラブル端末2、及びサーバ装置3aを含む状態判定システムSが実行する状態判定処理に含まれる各処理の処理内容について、図21及び図22のフローチャートを参照して説明する。図21は状態判定処理における前処理の流れを説明するフローチャートである。図22は、状態判定処理における判定処理の流れを説明するフローチャートである。
[Status judgment process]
Next, the processing contents of each process included in the state determination process executed by the state determination system S including the
なお、第1実施形態の状態判定処理と同様に、この前処理の後に、把持開始処理が行われてから、さらに構築処理が行われ、最後に把持終了処理が行われるれる。この把持開始処理は、図12を参照して説明した第1実施形態の把持開始処理と同様である。また、この把持終了処理は、図16を参照して説明した第1実施形態の把持終了処理と同様である。したがって、これらの点について、重複する説明を省略する。また、上述したように、本実施形態のフローチャート(すなわち、図19~22)において、第1実施形態のフローチャート(すなわち、図11、図12、図13及び図16)と同様の符号番号が付されているステップの処理内容は、第1実施形態における処理内容と同一である。したがって、これらのステップの処理内容の詳細の説明についても適宜省略する。
また、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理は、別途行われているものとする。
Similar to the state determination process of the first embodiment, after this preprocessing, the gripping start process is performed, then the construction process is further performed, and finally the gripping end process is performed. This gripping start processing is the same as the gripping start processing of the first embodiment described with reference to FIG. Further, this gripping end process is the same as the gripping end process of the first embodiment described with reference to FIG. Therefore, duplicate description of these points will be omitted. Further, as described above, in the flowchart of the present embodiment (that is, FIGS. 19 to 22), the same reference numerals as those of the flowchart of the first embodiment (that is, FIGS. 11, 12, 13, 13 and 16) are assigned. The processing content of the step is the same as the processing content in the first embodiment. Therefore, the detailed description of the processing contents of these steps will be omitted as appropriate.
Further, as a premise of the explanation, it is assumed that the object
まず、図21を参照すると、ステップS1において、対象物撮影部212は、ユーザUからの撮影指示操作に基づいて、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした検査対象物画像データを生成する。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3aに対して送信する。
First, referring to FIG. 21, in step S1, the
In step S2, the
ステップS3において、識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。
In step S3, the
In step S4, the
ステップS5において、通知部214は、識別結果に対応する対象物情報をユーザUに対して通知する。例えば、対象物情報に含まれている、製品名や、外観(すなわち、包装容器)の画像データを表示等することにより通知する。
In step S5, the
ステップS6において、通知部214は、サーバ装置3aによる識別結果は正しいか否かを判定する。識別結果が正しい旨の操作を受け付けた場合は、ステップS6においてYesと判定され、処理はステップS7に進む。一方で、識別結果が正しい旨の操作を受け付けない場合は、ステップS6においてNoと判定され、処理はステップS1に戻り、ステップS1の撮影から再度繰り返される。
In step S6, the
ステップS81において、対象物情報管理部213は、識別結果に対応する対象物情報をサーバ装置3aに対して送信する。
ステップS82において、判定部315は、学習モデル記憶部354が記憶する機械学習モデルを読み出すことにより設定する。なお、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにする場合には、ウェアラブル端末2から受信した対象物情報に基づいて、この対象物情報の種類(すなわち、今回判定対象とする検査対象物4の種類)に対応する機械学習モデルを学習モデル記憶部354から読み出す。
In step S81, the object
In step S82, the
ステップS83において、判定部315は、機械学習モデルを設定した旨をウェアラブル端末2に対して送信する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
In step S83, the
In step S10, the
ステップS11において、通知部214は、識別結果に対応する対象物情報に含まれる検査時に把持機構65において把持すべき位置の画像データをユーザUに対して通知する。このステップS11による通知に伴い、ユーザUは、検査対象物4を把持するために、操作機構55に対する操作を開始する。
In step S11, the
その後、上述したように、図12を参照して説明した第1実施形態の把持開始処理と同様の、把持開始処理が行われる。そして、この把持開始処理が終了すると、構築処理が開始される。なお、第1実施形態の把持開始処理において判定部114が処理主体となって行っていたステップについては、本実施形態の把持開始処理では処理部117が処理主体となって行うものとする。
After that, as described above, the gripping start processing similar to the gripping start processing of the first embodiment described with reference to FIG. 12 is performed. Then, when the gripping start process is completed, the construction process is started. Regarding the step in which the
次に、図22を参照すると、ステップS21において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
Next, referring to FIG. 22, in step S21, the
ステップS22において、処理部117は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。
In step S22, the
力を示す値が第1閾値以上を維持している場合は、ステップS22においてYesと判定され、処理はステップS25に進む。一方で、力を示す値が第1閾値以上を維持していない場合(すなわち、力を示す値が第1閾値未満の場合)は、ステップS22においてNoと判定され、処理はステップS24に進む。 When the value indicating the force maintains the first threshold value or more, it is determined as Yes in step S22, and the process proceeds to step S25. On the other hand, when the value indicating the force does not maintain the first threshold value or more (that is, when the value indicating the force is less than the first threshold value), it is determined as No in step S22, and the process proceeds to step S24.
ステップS23において、処理部117は、検査対象物4の把持の失敗を検出した旨をウェアラブル端末2に対して送信する。
In step S23, the
ステップS24において、通知部214は、状態判定装置1の状態を示すスターテスを「エラー及びリトライ」として、ユーザUに対して通知する。そして、処理は図21のステップS10に戻り、繰り返される。
In step S24, the
ステップS26において、処理部117は、ステップS21~ステップS27にて用いるカウンタの値を1つカウントアップする。なお、構築処理では、状態判定装置1による判定は行う必要がないため、第1実施形態におけるステップS25は行わない。
ステップS27において、処理部117は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、力触覚に関する制御パラメータを、入力データとして必要なだけ取得する意図で行われる処理である。
In step S26, the
In step S27, the
ステップS28において、処理部117は、ステップS21を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された力触覚に関する制御パラメータは、その後、機械学習モデルを用いて破損に関する判定を行うための入力データの一部として利用される。
In step S28, the
ステップS91において、処理部117は、把持をした際(例えば、力触覚に関する制御パラメータが取得完了した時点)に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧を環境情報として取得し、環境情報記憶部154に記憶する。この記憶された環境情報は、その後、機械学習モデルを用いて破損に関する判定を行うための入力データの一部として利用される。
In step S91, the
ステップS92において、処理部117は、ステップS28で記憶した力触覚に関する制御パラメータ、及びステップS91で記憶した環境情報を組として、入力データとしてサーバ装置3aに対して送信する。
In step S92, the
ステップS93において、判定部315は、状態判定装置1から受信した入力データを、ステップS82で設定した機械学習モデルに入力し、その出力を検査対象物4の破損に関する判定の判定結果とする。この場合、判定結果は、検査対象物4が破損しているか否かを示す情報となる。
In step S93, the
ステップS94において、判定部315は、検査対象物4が破損しているか否かの判定結果をウェアラブル端末2に対して送信する。ここで、送信される判定結果は「検査対象物4が破損している。」というものか、「検査対象物4が破損していない。」というものの何れかになる。
In step S94, the
ステップS30において、通知部214は、判定結果をユーザUに対して通知する。例えば、判定結果である「検査対象物4が破損している。」という旨、又は「検査対象物4が破損していない。」という旨の何れかを示すテキストを表示したり音声を出力したりする。
ステップS31において、通知部214は、作業情報をユーザUに対して通知する。例えば、この作業情報は、判定結果に応じたものとし、ユーザUが次に行うべき作業を具体的に指示する内容とする。
In step S30, the
In step S31, the
これらステップS30及びステップS31における通知の具体例について、図14及び図15を参照して説明した第1実施形態の通知の具体例と同様である。
ただし、第1実施形態では、力触覚に関する制御パラメータである位置を示す値(図中では「測定値」)と、第2閾値(図中では「閾値」)との関係を示すテキストが表示されていた。第2実施形態では、これに代えて、力触覚に関する制御パラメータである位置を示す値(図中では「測定値」)と、機械学習モデルによる判定基準等となる特徴量の値との関係を示すテキストを表示するようにしてもよい。
また、他にも、例えば、第2実施形態では、環境情報に含まれる温度等の値を示すテキストを表示するようにしてもよい。
The specific examples of the notifications in steps S30 and S31 are the same as the specific examples of the notifications of the first embodiment described with reference to FIGS. 14 and 15.
However, in the first embodiment, a text showing the relationship between the value indicating the position (“measured value” in the figure), which is a control parameter related to force and tactile sensation, and the second threshold value (“threshold value” in the figure) is displayed. Was there. In the second embodiment, instead of this, the relationship between the value indicating the position (“measured value” in the figure), which is a control parameter related to force and tactile sensation, and the value of the feature amount, which is a judgment standard by the machine learning model, is established. You may want to display the text to indicate.
In addition, for example, in the second embodiment, a text indicating a value such as temperature included in the environmental information may be displayed.
その後、上述したように、図16を参照して説明した第1実施形態の把持終了処理と同様の、把持終了処理が行われる。そして、この把持終了処理が終了すると、本状態判定処理は終了する。なお、第1実施形態の把持終了処理において判定部114が処理主体となって行っていたステップについては、本実施形態の把持終了処理では処理部117が処理主体となって行うものとする。
After that, as described above, the gripping end processing similar to the gripping end processing of the first embodiment described with reference to FIG. 16 is performed. Then, when the gripping end process is completed, the present state determination process is completed. Regarding the step in which the
以上説明した、機械学習処理及び状態判定処理によれば、状態判定装置1によって検査対象物4を把持した際の力触覚に関する制御パラメータと、温度、湿度及び気圧といった環境情報とに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、本実施形態は、第1実施形態と同様に、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。
すなわち、本実施形態の機械学習処理及び状態判定処理によれば、よれば、第1実施形態の状態判定処理と同様に、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
According to the machine learning process and the state determination process described above, objectively based on the control parameters related to the force and tactile sensation when the
That is, according to the machine learning process and the state determination process of the present embodiment, as in the state determination process of the first embodiment, stable accuracy based on an objective index is used when inspecting for damage. It is possible to realize the inspection in.
[変形例]
以上、本発明の実施形態について説明したが、この実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明は、本発明の要旨を逸脱しない範囲で、その他の様々な実施形態を取ることが可能である共に、省略及び置換等種々の変形を行うことができる。この場合に、これら実施形態及びその変形は、本明細書等に記載された発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
一例として、以上説明した本発明の実施形態を、以下のようにして変形してもよい。
[Modification example]
Although the embodiment of the present invention has been described above, this embodiment is merely an example and does not limit the technical scope of the present invention. The present invention can take various other embodiments without departing from the gist of the present invention, and can be modified in various ways such as omission and substitution. In this case, these embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
As an example, the embodiment of the present invention described above may be modified as follows.
上述の第1実施形態や第2実施形態では、単一のサーバ装置3(あるいはサーバ装置3a)が、対象物情報の管理、画像解析による検査対象物4の識別、及び製品情報の管理等を行っていた。これに限らず、例えば、これら複数の機能を、複数のサーバ装置に分散して実現するようにしてもよい。また、例えば、状態判定装置1とウェアラブル端末2とを単一の装置として実現してもよい。
In the first embodiment and the second embodiment described above, a single server device 3 (or
上述の第1実施形態と第2実施形態の一部又は全部を組み合わせるようにしてもよい。例えば、機械学習処理を行うための教師データが蓄積されて、機械学習モデルを構築するまでは、第1実施形態のようにして第2閾値を用いて状態判定処理を行う。そして、機械学習モデルを構築した後は、第2実施形態のようにして機械学習モデルを用いて状態判定処理を行う、というように組み合わせるようにしてもよい。他にも、例えば、ユーザの選択操作や、判定対象とする検査対象物4の種類等に応じて、第1実施形態のようにして第2閾値を用いて状態判定処理を行うのか、それとも第2実施形態のようにして機械学習モデルを用いて状態判定処理を行うのかを選択できるようにしてもよい。
A part or all of the above-mentioned first embodiment and the second embodiment may be combined. For example, until the teacher data for performing the machine learning process is accumulated and the machine learning model is constructed, the state determination process is performed using the second threshold value as in the first embodiment. Then, after the machine learning model is constructed, the state determination process may be performed using the machine learning model as in the second embodiment. In addition, for example, whether the state determination process is performed using the second threshold value as in the first embodiment according to the user's selection operation, the type of the
上述の第1実施形態では、力を示す値が第1閾値を維持している状態で、且つ、位置を示す値が第2閾値未満とならないか、に基づいて検査対象物4の破損に関する判定を行っていた。すなわち、力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて判定を行っていた。これに限らず、例えば、位置を一定とした状態で、力の変化に基づいて判定を行ってもよい。あるいは、力の変化と位置の変化の双方に基づいて判定を行ってもよい。すなわち、力触覚に関する制御パラメータに基づいて、把持におけるインピーダンスを適切に特定し、安定した精度で判定をすることが可能であれば、判定を行う基準を適宜変更してもよい。
In the above-mentioned first embodiment, the determination regarding the damage of the
上述の第2実施形態では、力を示す値が第1閾値を維持している状態で、且つ、位置を示す値を取得して、この位置を示す値を力触覚に関する制御パラメータとしていた。そして、この力触覚に関する制御パラメータ(すなわち、位置を示す値)を教師データや入力データの一部として、機械学習モデルを構築したり、検査対象物4の破損に関する判定を行ったりしていた。すなわち、力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて判定を行っていた。これに限らず、例えば、位置を一定とした状態で、力の変化に基づいて判定を行ってもよい。あるいは、力の変化と位置の変化の双方に基づいて判定を行ってもよい。すなわち、力触覚に関する制御パラメータに基づいて、把持におけるインピーダンスを適切に特定し、安定した精度で判定をすることが可能であれば、判定を行う基準を適宜変更してもよい。
In the above-mentioned second embodiment, the value indicating the force is maintained at the first threshold value, the value indicating the position is acquired, and the value indicating this position is used as the control parameter related to the force-tactile sensation. Then, using the control parameter (that is, the value indicating the position) related to the force-tactile sensation as a part of the teacher data and the input data, a machine learning model is constructed and a determination regarding the damage of the
上述の第2実施形態では、サーバ装置3aに学習モデル記憶部354を設けて機械学習モデルを記憶すると共に、サーバ装置3aの判定部315が機械学習モデルを用いて、破損に関する判定を行っていた。これに限らず、例えば、状態判定装置1に学習モデル記憶部354同様の記憶部を設けて機械学習モデルを記憶すると共に、状態判定装置1に判定部315同様の機能ブロックを設けて、この状態判定装置1の判定部が機械学習モデルを用いて、破損に関する判定を行うようにしてもよい。あるいは、例えば、ウェアラブル端末20に学習モデル記憶部354同様の記憶部を設けて機械学習モデルを記憶すると共に、ウェアラブル端末2に判定部315同様の機能ブロックを設けて、このウェアラブル端末2の判定部が機械学習モデルを用いて、破損に関する判定を行うようにしてもよい。
これにより、例えば、状態判定処理時にサーバ装置3aとの通信が困難な環境下であっても、機械学習モデルを用いて、破損に関する判定を行うことが可能となる。
さらに、状態判定装置1やウェアラブル端末2において演算能力を十分に確保することができたり、少ない演算量で機械学習モデルを構築できたりする機械学習の方法を利用する場合には、状態判定装置1やウェアラブル端末2に機械学習部314同様の機械学習部を設けて、機械学習モデルの構築についても、この機械学習部が行うようにしてもよい。
In the above-mentioned second embodiment, the learning
As a result, for example, even in an environment where communication with the
Further, when using a machine learning method that can secure sufficient computing power in the
上述の第2実施形態では、環境情報を機械学習処理における教師データの一部や、状態判定処理における入力データの一部として利用していた。これに限らず、例えば、環境情報の利用は省略するようにしてもよい。あるいは、環境情報以外の、把持時における力触覚に関する制御パラメータに影響を及ぼす事象を示す情報を、利用するようにしてもよい。 In the above-mentioned second embodiment, the environmental information is used as a part of the teacher data in the machine learning process and a part of the input data in the state determination process. Not limited to this, for example, the use of environmental information may be omitted. Alternatively, information other than environmental information that indicates an event that affects control parameters related to force and tactile sensation during grasping may be used.
以上のように、本発明の実施形態に係る状態判定システムSは、動作制御部111と、パラメータ取得部112と、判定部114と、通知部214と、を備える。
動作制御部111は、ユーザの操作に基づいて状態判定装置1の動作を制御することにより、状態判定装置1に検査対象物4を把持させる。
パラメータ取得部112は、動作制御部111による状態判定装置1の制御で用いた、力触覚に関する制御パラメータを取得する。
判定部114は、パラメータ取得部112が取得した力触覚に関する制御パラメータに基づいて、検査対象物4の破損に関する判定をする。
通知部214は、判定部114の判定結果をユーザに対して通知する。
このように、状態判定システムSは、検査対象物4を把持機構で把持した際の力触覚に関する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, the state determination system S according to the embodiment of the present invention includes an
The
The
The
The
As described above, the state determination system S objectively determines the damage of the
That is, according to the state determination system S, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
検査対象物4は、包装容器であり、
判定部114は、包装容器の破損により、検査対象物4である包装容器によって包装されている内容物が流出しているか否かを判定する。
これにより、包装容器の破損により、空気漏れ等が発生していないか否かを検査することができる。
The
The
This makes it possible to inspect whether or not air leakage or the like has occurred due to damage to the packaging container.
状態判定装置1は、ユーザの操作を受け付けるマスタ装置と、検査対象物4の把持を実行するスレーブ装置とを含んでいる。
動作制御部111は、マスタ装置とスレーブ装置との間で力触覚に関する制御パラメータを伝達することにより、状態判定装置1の動作を制御する。
これにより、マスタ装置の動作とスレーブ装置の動作とを制御する際の、力触覚に関する制御パラメータを利用して検査を行うことができる。
The
The
Thereby, the inspection can be performed by using the control parameters related to the force-tactile sensation when controlling the operation of the master device and the operation of the slave device.
状態判定システムSは、識別部312をさらに備える。
識別部312は、検査対象物4を認識することにより、該検査対象物4の種類を識別する。
判定部114は、識別部312が識別した検査対象物4の種類に対応する基準で、検査対象物4の破損に関する判定をする。
これにより、様々な種類の検査対象物4それぞれに対応した、適切な基準により検査を行うことができる。
The state determination system S further includes an
The
The
As a result, the inspection can be performed according to an appropriate standard corresponding to each of the various types of inspection objects 4.
識別部312は、ユーザが装着する撮影装置により撮影された検査対象物4の画像に基づいて、該検査対象物4の種類を識別する。
これにより、画像識別によって、より簡便に、検査対象物4の種類を識別することができる。
The
Thereby, the type of the
通知部214は、ユーザが装着する通知装置から、判定部114の判定結果と共に、あるいは該判定結果に代えて、該判定結果に基づいたユーザに対する作業指示を通知する。
これにより、ユーザに対して、破損の有無等に応じた適切な作業指示を通知することができる。
The
As a result, it is possible to notify the user of an appropriate work instruction according to the presence or absence of damage or the like.
判定部114は、力触覚に関する制御パラメータに基づいて検出される、状態判定装置1が備える所定部位の位置に基づいて、検査対象物4の破損に関する判定をする。
これにより、位置という明確な基準に基づいて、検査を行うことができる。
The
This allows the inspection to be performed based on a clear criterion of position.
状態判定システムSは、作業情報管理部215及び作業情報管理部313をさらに備える。
作業情報管理部215及び作業情報管理部313は、ユーザによる状態判定装置1を用いた作業の結果を管理する。
これにより、検査を行うのみならず、作業履歴の管理等を行うことができる。
The state determination system S further includes a work
The work
As a result, not only the inspection but also the management of the work history can be performed.
動作制御部111は、力触覚に関する制御パラメータを調整して状態判定装置1の把持を抑制することにより、該把持によって検査対象物4が破損することを防止する。
これにより、検査中に誤って検査対象物4を破損させてしまうような事態を防止することができる。
The
This makes it possible to prevent a situation in which the
動作制御部111は、前記ユーザによる操作に基づいて状態判定装置1を制御するために、位置センサと、力・速度割当変換ブロックFT理想力源ブロックFC及び理想速度(位置)源ブロックPCと、逆変換ブロックIFTと、を備える。
位置センサは、状態判定装置1の動作に伴う、位置に関する情報を検出する。
力・速度割当変換ブロックFTは、位置に関する情報に対応する所定の物理量の情報と、制御の基準となる情報とに基づいて、制御エネルギーを所定の物理量のエネルギーに対して割り当てる変換を行う。
理想力源ブロックFC及び理想速度(位置)源ブロックPCは、力・速度割当変換ブロックFTによって割り当てられた所定の物理量のエネルギーに基づいて、所定の物理量の制御量を算出する。
逆変換ブロックIFTは、理想力源ブロックFC及び理想速度(位置)源ブロックPCが算出した制御量に基づく出力を状態判定装置1に戻すべく、該制御量を逆変換して、状態判定装置1への入力を決定する。
これにより、各ユーザが力触覚を伴う動作を行う場合に、力触覚に関する制御パラメータに基づいて、状態判定装置1の動作を制御することができる。
The
The position sensor detects information about the position accompanying the operation of the
The force / velocity allocation conversion block FT performs conversion to allocate control energy to energy of a predetermined physical quantity based on information of a predetermined physical quantity corresponding to information regarding a position and information as a reference for control.
The ideal force source block FC and the ideal velocity (position) source block PC calculate a control amount of a predetermined physical quantity based on the energy of a predetermined physical quantity allocated by the force / velocity allocation conversion conversion block FT.
The inverse conversion block IFT reversely converts the control amount to return the output based on the control amount calculated by the ideal force source block FC and the ideal speed (position) source block PC to the
As a result, when each user performs an operation accompanied by a force-tactile sensation, the operation of the
以上のように、本発明の実施形態に係る状態判定システムSは、マスタ側アクチュエータ52と、スレーブ側アクチュエータ62と、動作制御部111と、判定部315又は判定部114と、通知部214と、を備える。
マスタ側アクチュエータ52は、操作機構55を動作させる。
スレーブ側アクチュエータ62は、把持機構65を動作させる。
動作制御部111は、操作機構55に入力されたユーザの操作に応じてスレーブ側アクチュエータ62を駆動することで、把持機構65が検査対象物4を把持する動作を制御すると共に、把持機構65に入力された検査対象物4からの反力に応じてマスタ側アクチュエータ52を駆動することで、操作機構55が反力をユーザに伝達する動作を制御する、という動作制御を行う。
判定部315又は判定部114は、動作制御部111が動作制御において用いた制御パラメータに基づいて、検査対象物4の破損に関する判定をする。
通知部214は、判定部315の判定結果をユーザに対して通知する。
このように、状態判定システムSは、検査対象物4を把持機構で把持した際の、ユーザの操作や検査対象物4からの反力(すなわち力触覚)に対応する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, the state determination system S according to the embodiment of the present invention includes the master side actuator 52, the
The master side actuator 52 operates the
The
The
The
The
As described above, the state determination system S is objectively based on the control parameters corresponding to the user's operation and the reaction force (that is, force tactile sensation) from the
That is, according to the state determination system S, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
判定部315は、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルに対して、判定対象とする検査対象物4の把持時に動作制御部111が動作制御において用いた制御パラメータを入力することで判定を行う。
これにより、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標に基づいて判定をすることとなり、より安定した精度での検査を実現することができる。
The
As a result, the judgment is made based on an objective index called a machine learning model in which the relationship between the control parameter and the judgment result regarding the damage of the
状態判定システムSは、機械学習部314をさらに備える。
機械学習部314は、制御パラメータと、検査対象物4の破損に関する判定結果との組を教師データとした機械学習をすることで、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルを構築する。
これにより、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標を構築することができる。
The state determination system S further includes a
The
As a result, it is possible to construct an objective index called a machine learning model in which the relationship between the control parameter and the determination result regarding the damage of the
機械学習モデルは、制御パラメータと、検査対象物4の破損に関する判定結果との関係に加えて、さらにマスタ側アクチュエータ52及びスレーブ側アクチュエータ62の駆動時における周囲の環境との関係についても機械学習させた機械学習モデルである。
これにより、マスタ側アクチュエータ52及びスレーブ側アクチュエータ62の駆動時における周囲の環境という、さらに詳細な情報も考慮した、機械学習モデルを利用することができる。
The machine learning model is machine-learned not only about the relationship between the control parameters and the determination result regarding the damage of the
This makes it possible to use a machine learning model that takes into account more detailed information such as the surrounding environment when the master side actuator 52 and the
機械学習において用いられる検査対象物4の破損に関する判定結果は、検査対象物4の把持時に操作機構55に対して操作を入力したユーザによってなされた判定結果である。
これにより、例えば、熟練したユーザや、正解を予め知っているユーザによる、正確な判定結果に基づいた、機械学習モデルを利用することができる。
The determination result regarding the damage of the
Thereby, for example, a machine learning model based on an accurate determination result by a skilled user or a user who knows the correct answer in advance can be used.
状態判定システムSは、識別部312をさらに備える。
ユーザが装着する撮影装置により撮影された検査対象物4の画像に基づいて、検査対象物4を認識することにより、該検査対象物4の種類を識別する。
判定部315又は判定部114は、識別部312が識別した検査対象物4の種類に対応する基準で、検査対象物4の破損に関する判定をする。
これにより、画像識別によって、より簡便に、検査対象物4の種類を識別できるのみならず、さらに様々な種類の検査対象物4それぞれに対応した、適切な基準により検査を行うことができる。
The state determination system S further includes an
By recognizing the
The
Thereby, not only the type of the
通知部214は、ユーザが装着する通知装置から、判定部315又は判定部114の判定結果と共に、あるいは該判定結果に代えて、該判定結果に基づいたユーザに対する作業指示を通知する。
これにより、ユーザに対して、破損の有無等に応じた適切な作業指示を通知することができる。
The
As a result, it is possible to notify the user of an appropriate work instruction according to the presence or absence of damage or the like.
[ハードウェアやソフトウェアによる機能の実現]
上述した実施形態による一連の処理を実行させる機能は、ハードウェアにより実現することもできるし、ソフトウェアにより実現することもできるし、これらの組み合わせにより実現することもできる。換言すると、上述した一連の処理を実行する機能が、状態判定システムSの何れかにおいて実現されていれば足り、この機能をどのような態様で実現するのかについては、特に限定されない。
[Realization of functions by hardware and software]
The function of executing a series of processes according to the above-described embodiment can be realized by hardware, software, or a combination thereof. In other words, it suffices if the function of executing the above-mentioned series of processes is realized in any one of the state determination systems S, and the mode in which this function is realized is not particularly limited.
例えば、上述した一連の処理を実行する機能を、演算処理を実行するプロセッサによって実現する場合、この演算処理を実行するプロセッサは、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。 For example, when the function of executing the above-mentioned series of processes is realized by a processor that executes arithmetic processing, the processor that executes this arithmetic processing is composed of various processing units such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, the present invention includes a combination of these various processing units and a processing circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
また、例えば、上述した一連の処理を実行する機能を、ソフトウェアにより実現する場合、そのソフトウェアを構成するプログラムは、ネットワーク又は記録媒体を介してコンピュータにインストールされる。この場合、コンピュータは、専用のハードウェアが組み込まれているコンピュータであってもよいし、プログラムをインストールすることで所定の機能を実行することが可能な汎用のコンピュータ(例えば、汎用のパーソナルコンピュータ等の電子機器一般)であってもよい。また、プログラムを記述するステップは、その順序に沿って時系列的に行われる処理のみを含んでいてもよいが、並列的あるいは個別に実行される処理を含んでいてもよい。また、プログラムを記述するステップは、本発明の要旨を逸脱しない範囲内において、任意の順番に実行されてよい。 Further, for example, when the function of executing the above-mentioned series of processes is realized by software, the programs constituting the software are installed in the computer via a network or a recording medium. In this case, the computer may be a computer having dedicated hardware built-in, or a general-purpose computer capable of performing a predetermined function by installing a program (for example, a general-purpose personal computer or the like). It may be an electronic device in general). Further, the step for describing the program may include only the processes performed in time series in the order thereof, but may include the processes executed in parallel or individually. Further, the steps for describing the program may be executed in any order within a range that does not deviate from the gist of the present invention.
このようなプログラムを記録した記録媒体は、コンピュータ本体とは別に配布されることによりユーザに提供されてもよく、コンピュータ本体に予め組み込まれた状態でユーザに提供されてもよい。この場合、コンピュータ本体とは別に配布される記憶媒体は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)、あるいはBlu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、例えば、MD(Mini Disc)等により構成される。これら記憶媒体は、例えば、図8のドライブ18や図10のドライブ38に装着されて、コンピュータ本体に組み込まれる。また、コンピュータ本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図8のROM12、図9のROM22、図10のROM32、図8の記憶部15、図9の記憶部25、あるいは、図10の記憶部35に含まれるハードディスク等により構成される。
The recording medium on which such a program is recorded may be provided to the user by being distributed separately from the computer main body, or may be provided to the user in a state of being incorporated in the computer main body in advance. In this case, the storage medium distributed separately from the computer itself is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versaille Disc), a Blu-ray (registered trademark) Disc (Blu-ray disc), or the like. The magneto-optical disk is composed of, for example, MD (MiniDisc) or the like. These storage media are attached to, for example, the
1 状態判定装置、2 ウェアラブル端末、3,3a サーバ装置、4 検査対象物、10,10a 制御ユニット、11,21,31 プロセッサ、12,22,32 ROM、13,23,33 RAM、14,24,34 通信部、15,25,35 記憶部、16,26,36 入力部、17,27,37 出力部、18,38 ドライブ、28 カメラ、29,19 センサ、50 マスタ側ユニット、51 マスタ側ドライバ、52 マスタ側アクチュエータ、53 マスタ側位置センサ、55 操作機構、60 スレーブ側ユニット、61 スレーブ側ドライバ、62 スレーブ側アクチュエータ、63 スレーブ側位置センサ、65 把持機構、111 動作制御部、112 パラメータ取得部、113 判定基準設定部、114 判定部、115 正解情報取得部、116 環境情報取得部、117 処理部、151 パラメータ記憶部、152 判定基準記憶部、153 正解情報記憶部、154 環境情報記憶部、211 指示解釈部、212 対象物撮影部、213、311 対象物情報管理部、214 通知部、215、313 作業情報管理部、251、351 対象物情報記憶部、252、352 作業情報記憶部、312 識別部、314 機械学習部、315 判定部、353 教師データ記憶部、354 学習モデル記憶部、CS 制御対象システム、FT 力・速度割当変換ブロック、FC 理想力源ブロック、PC 理想速度(位置)源ブロック、IFT 逆変換ブロック、N ネットワーク、S 状態判定システム、U ユーザ 1 Status determination device, 2 Wearable terminal, 3,3a server device, 4 Inspection target, 10,10a control unit, 11,21,31 processor, 12,22,32 ROM, 13,23,33 RAM, 14,24 , 34 communication unit, 15, 25, 35 storage unit, 16, 26, 36 input unit, 17, 27, 37 output unit, 18, 38 drive, 28 camera, 29, 19 sensor, 50 master side unit, 51 master side Driver, 52 Master side actuator, 53 Master side position sensor, 55 Operation mechanism, 60 Slave side unit, 61 Slave side driver, 62 Slave side actuator, 63 Slave side position sensor, 65 Grip mechanism, 111 Operation control unit, 112 Parameter acquisition Unit, 113 Judgment standard setting unit, 114 Judgment unit, 115 Correct answer information acquisition unit, 116 Environmental information acquisition unit, 117 Processing unit, 151 Parameter storage unit, 152 Judgment standard storage unit, 153 Correct answer information storage unit, 154 Environmental information storage unit , 211 Instruction interpretation unit, 212 Object photography unit, 213,311 Object information management unit, 214 Notification unit, 215, 313 Work information management unit, 251, 351 Object information storage unit, 252, 352 Work information storage unit, 312 Identification unit, 314 Machine learning unit, 315 Judgment unit, 353 Teacher data storage unit, 354 Learning model storage unit, CS control target system, FT force / speed allocation conversion block, FC ideal power source block, PC ideal speed (position) Source block, IFT inverse conversion block, N network, S status determination system, U user
Claims (9)
把持機構を動作させる把持機構側アクチュエータと、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御手段と、
前記動作制御手段が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定手段と、
前記判定手段の判定結果を前記ユーザに対して通知する通知手段と、
を備えることを特徴とする状態判定システム。 The actuator on the operation mechanism side that operates the operation mechanism, and
The actuator on the gripping mechanism side that operates the gripping mechanism,
By driving the gripping mechanism side actuator in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the inspection target, and the inspection target input to the gripping mechanism. An operation control means for performing an operation control in which the operation mechanism controls an operation of transmitting the reaction force to the user by driving the actuator on the operation mechanism side in response to a reaction force from an object.
A determination means for determining damage to the inspection object based on the control parameters used by the operation control means in the operation control, and a determination means.
A notification means for notifying the user of the determination result of the determination means, and
A state determination system characterized by being equipped with.
ことを特徴とする請求項1に記載の状態判定システム。 The determination means is a machine learning model in which the relationship between the control parameter and the determination result regarding the damage of the inspection object is machine-learned. The determination is made by inputting the control parameters used in the operation control.
The state determination system according to claim 1.
をさらに備えることを特徴とする請求項1又は2に記載の状態判定システム。 By performing machine learning using the set of the control parameter and the determination result regarding the damage of the inspection object as teacher data, the relationship between the control parameter and the determination result regarding the damage of the inspection object is machine-learned. Machine learning means to build a machine learning model,
The state determination system according to claim 1 or 2, further comprising.
ことを特徴とする請求項2又は3に記載の状態判定システム。 In the machine learning model, in addition to the relationship between the control parameter and the determination result regarding the damage of the inspection object, the relationship with the surrounding environment when the actuator on the operation mechanism side and the actuator on the gripping mechanism side are driven is also obtained. It is a machine learning model that has been machine-learned.
The state determination system according to claim 2 or 3, wherein the state determination system is characterized in that.
ことを特徴とする請求項2から4の何れか1項に記載の状態判定システム。 The determination result regarding the damage of the inspection object used in the machine learning is the determination result made by the user who input the operation to the operation mechanism at the time of grasping the inspection object.
The state determination system according to any one of claims 2 to 4, wherein the state determination system is characterized by the above.
前記判定手段は、前記識別手段が識別した検査対象物の種類に対応する基準で、前記検査対象物の破損に関する判定をする、
ことを特徴とする請求項1から5の何れか1項に記載の状態判定システム。 Further provided with an identification means for identifying the type of the inspection object by recognizing the inspection object based on the image of the inspection object taken by the imaging device worn by the user.
The determination means determines the damage of the inspection object based on the criteria corresponding to the type of the inspection object identified by the identification means.
The state determination system according to any one of claims 1 to 5, wherein the state determination system is characterized in that.
ことを特徴とする請求項1から5の何れか1項に記載の状態判定システム。 The notification means notifies the user of a work instruction based on the determination result together with the determination result of the determination means or instead of the determination result from the notification device worn by the user.
The state determination system according to any one of claims 1 to 5, wherein the state determination system is characterized in that.
把持機構を動作させる把持機構側アクチュエータと、
を備えたシステムが行う状態判定方法であって、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御ステップと、
前記動作制御ステップの前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定ステップと、
前記判定ステップの判定結果を前記ユーザに対して通知する通知ステップと、
を含むことを特徴とする状態判定方法。 The actuator on the operation mechanism side that operates the operation mechanism, and
The actuator on the gripping mechanism side that operates the gripping mechanism,
It is a state judgment method performed by a system equipped with
By driving the gripping mechanism side actuator in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the inspection target, and the inspection target input to the gripping mechanism. An operation control step that controls an operation in which the operation mechanism controls an operation of transmitting the reaction force to the user by driving the actuator on the operation mechanism side in response to a reaction force from an object.
A determination step for determining damage to the inspection object based on the control parameters used in the operation control of the operation control step, and a determination step.
A notification step for notifying the user of the determination result of the determination step,
A state determination method comprising.
前記動作制御機能が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定機能と、
前記判定機能の判定結果を前記ユーザに対して通知する通知機能と、
をコンピュータに実現させることを特徴とする状態判定プログラム。 By driving the actuator on the gripping mechanism side that operates the gripping mechanism in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the object to be inspected and is input to the gripping mechanism. By driving the actuator on the operation mechanism side that operates the operation mechanism in response to the reaction force from the inspection object, the operation control that the operation mechanism controls the operation of transmitting the reaction force to the user is performed. Motion control function and
A determination function for determining damage to the inspection object based on the control parameters used by the operation control function in the operation control, and a determination function.
A notification function for notifying the user of the determination result of the determination function, and
A state judgment program characterized by realizing a computer.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020199222 | 2020-11-30 | ||
JP2020199222 | 2020-11-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022087045A true JP2022087045A (en) | 2022-06-09 |
JP7148938B2 JP7148938B2 (en) | 2022-10-06 |
Family
ID=81893822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021189744A Active JP7148938B2 (en) | 2020-11-30 | 2021-11-22 | State determination system, state determination method, and state determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7148938B2 (en) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05180725A (en) * | 1991-12-26 | 1993-07-23 | Ishida Scales Mfg Co Ltd | Method of inspecting seal of sealed and packaged product |
JP2000008971A (en) * | 1998-06-24 | 2000-01-11 | Hino Motors Ltd | Exhaust gas recirculation cooler |
JP2000084871A (en) * | 1998-09-17 | 2000-03-28 | Hitachi Ltd | Master slave manipulator |
JP2003149074A (en) * | 2001-11-13 | 2003-05-21 | Ishida Co Ltd | Seal checking device |
JP2009241247A (en) * | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | Stereo-image type detection movement device |
JP2012007985A (en) * | 2010-06-24 | 2012-01-12 | Nec Corp | Confirmation work support system, server device, head-mounted display device, wearable terminal, confirmation work support method, and program |
WO2017033380A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Robot system |
JP2017148924A (en) * | 2016-02-26 | 2017-08-31 | 花王株式会社 | Robot hand |
JP2017221597A (en) * | 2016-06-17 | 2017-12-21 | 株式会社Jvcケンウッド | Imaging device, imaging method and imaging program |
JP2018204959A (en) * | 2017-05-30 | 2018-12-27 | 株式会社A・R・P | Bag breaking strength inspection device |
JP2019051569A (en) * | 2017-09-14 | 2019-04-04 | 株式会社東芝 | Holding device, handling device, and detection device |
JP2020170391A (en) * | 2019-04-04 | 2020-10-15 | ファナック株式会社 | Mechanical learning device and mechanical learning method |
-
2021
- 2021-11-22 JP JP2021189744A patent/JP7148938B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05180725A (en) * | 1991-12-26 | 1993-07-23 | Ishida Scales Mfg Co Ltd | Method of inspecting seal of sealed and packaged product |
JP2000008971A (en) * | 1998-06-24 | 2000-01-11 | Hino Motors Ltd | Exhaust gas recirculation cooler |
JP2000084871A (en) * | 1998-09-17 | 2000-03-28 | Hitachi Ltd | Master slave manipulator |
JP2003149074A (en) * | 2001-11-13 | 2003-05-21 | Ishida Co Ltd | Seal checking device |
JP2009241247A (en) * | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | Stereo-image type detection movement device |
JP2012007985A (en) * | 2010-06-24 | 2012-01-12 | Nec Corp | Confirmation work support system, server device, head-mounted display device, wearable terminal, confirmation work support method, and program |
WO2017033380A1 (en) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Robot system |
JP2017148924A (en) * | 2016-02-26 | 2017-08-31 | 花王株式会社 | Robot hand |
JP2017221597A (en) * | 2016-06-17 | 2017-12-21 | 株式会社Jvcケンウッド | Imaging device, imaging method and imaging program |
JP2018204959A (en) * | 2017-05-30 | 2018-12-27 | 株式会社A・R・P | Bag breaking strength inspection device |
JP2019051569A (en) * | 2017-09-14 | 2019-04-04 | 株式会社東芝 | Holding device, handling device, and detection device |
JP2020170391A (en) * | 2019-04-04 | 2020-10-15 | ファナック株式会社 | Mechanical learning device and mechanical learning method |
Also Published As
Publication number | Publication date |
---|---|
JP7148938B2 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10706331B2 (en) | Task execution system, task execution method, training apparatus, and training method | |
Segura et al. | Visual computing technologies to support the Operator 4.0 | |
US11619927B2 (en) | Automatic analysis of real time conditions in an activity space | |
JP6403920B1 (en) | 3D space monitoring device, 3D space monitoring method, and 3D space monitoring program | |
Dang et al. | Semantic grasping: planning task-specific stable robotic grasps | |
US20210331311A1 (en) | Image generation device, robot training system, image generation method, and non-transitory computer readable storage medium | |
Melnik et al. | Using tactile sensing to improve the sample efficiency and performance of deep deterministic policy gradients for simulated in-hand manipulation tasks | |
JP2023076426A (en) | Machine learning system for technical knowledge capture | |
Parsa et al. | Toward ergonomic risk prediction via segmentation of indoor object manipulation actions using spatiotemporal convolutional networks | |
Wilhelm et al. | Improving Human-Machine Interaction with a Digital Twin: Adaptive Automation in Container Unloading | |
JP7264253B2 (en) | Information processing device, control method and program | |
US11203116B2 (en) | System and method for predicting robotic tasks with deep learning | |
Kurrek et al. | Q-model: An artificial intelligence based methodology for the development of autonomous robots | |
JP6807589B1 (en) | Status judgment system, status judgment method, and status judgment program | |
Serrano-Munoz et al. | Learning and generalising object extraction skill for contact-rich disassembly tasks: an introductory study | |
Carfì et al. | Hand-object interaction: From human demonstrations to robot manipulation | |
KR102509698B1 (en) | Dancing smart robot studied dance gesture | |
JP7148938B2 (en) | State determination system, state determination method, and state determination program | |
Ni et al. | Translational objects dynamic modeling and correction for point cloud augmented virtual reality–Based teleoperation | |
Thanki et al. | Advanced Technologies for Industrial Applications | |
JP2020023050A (en) | Tactile information estimation device, tactile information estimation method and program | |
Behrens et al. | Embodied Reasoning for Discovering Object Properties via Manipulation | |
Wang et al. | DeepClaw 2.0: A Data Collection Platform for Learning Human Manipulation | |
Nambiar et al. | Automation of unstructured production environment by applying reinforcement learning | |
US20230351197A1 (en) | Learning active tactile perception through belief-space control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211214 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7148938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |