JP2022087045A - State determination system, state determination method, and state determination program - Google Patents

State determination system, state determination method, and state determination program Download PDF

Info

Publication number
JP2022087045A
JP2022087045A JP2021189744A JP2021189744A JP2022087045A JP 2022087045 A JP2022087045 A JP 2022087045A JP 2021189744 A JP2021189744 A JP 2021189744A JP 2021189744 A JP2021189744 A JP 2021189744A JP 2022087045 A JP2022087045 A JP 2022087045A
Authority
JP
Japan
Prior art keywords
unit
inspection object
determination
force
state determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021189744A
Other languages
Japanese (ja)
Other versions
JP7148938B2 (en
Inventor
聡 黒田
Satoshi Kuroda
公平 大西
Kohei Onishi
貴弘 溝口
Takahiro Mizoguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Information System Engineering Inc
Motion LIB Inc
Original Assignee
Keio University
Information System Engineering Inc
Motion LIB Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Information System Engineering Inc, Motion LIB Inc filed Critical Keio University
Publication of JP2022087045A publication Critical patent/JP2022087045A/en
Application granted granted Critical
Publication of JP7148938B2 publication Critical patent/JP7148938B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To perform damage inspection based on objective indices with stable accuracy.SOLUTION: A state determination system S includes a master-side actuator 52, a slave-side actuator 62, a motion control unit 111, a determination unit 315 or 114, and a notification unit 214. The motion control unit 111 performs motion control to control a grip mechanism 65 to grip an object 4 to be inspected by driving the slave-side actuator 62 in accordance with user operation input to an operation mechanism 55, and to control the operation mechanism 55 to transmit a reactive force to the user by driving the master-side actuator 52 in accordance with the reactive force from the object 4 to be inspected input to the grip mechanism 65. The determination unit 315 or 114 makes a determination on a damage of the object 4 to be inspected, on the basis of control parameters used by the motion control unit 111 in the motion control.SELECTED DRAWING: Figure 1

Description

本発明は、状態判定システム、状態判定方法、及び状態判定プログラムに関する。 The present invention relates to a state determination system, a state determination method, and a state determination program.

従来、様々な物品を対象として、破損に関する検査が行われている。例えば、食品等の内容物を包装する包装容器を対象として破損に関する検査を行うことにより、包装容器の空気漏れ等を、製品が消費者のもとに届く前に発見でき、製品としての品質を保証することが可能となる。 Conventionally, various articles have been inspected for damage. For example, by inspecting packaging containers for packaging the contents of foods and the like for damage, air leaks in the packaging containers can be detected before the product reaches the consumer, and the quality of the product can be improved. It becomes possible to guarantee.

このような包装容器等を対象とした検査についての技術の一例が、特許文献1に開示されている。特許文献1に開示の技術では、内容物を包装後の包装容器に対して、重量や温度を測定するセンサや、電磁波等により異物の混入を測定するセンサといった様々なセンサを用いることにより、多くの観点から検査を行うことができる。 Patent Document 1 discloses an example of a technique for inspection of such a packaging container or the like. In the technique disclosed in Patent Document 1, various sensors such as a sensor for measuring the weight and temperature and a sensor for measuring the inclusion of foreign matter by electromagnetic waves are used for the packaging container after packaging the contents. The inspection can be performed from the viewpoint of.

特開2011-253469号公報Japanese Unexamined Patent Publication No. 2011-253469

しかしながら、特許文献1に開示されているような検査を行うためには、様々なセンサのみならず、さらに検査用のコンベアといった大掛かりな設備が必要となる。この点、工場等での出荷段階での検査では、製品毎に大掛かりな設備を設置することは比較的容易である。これに対して、輸送途中で様々な製品についての破損を発見する必要がある、物流センターや小売店舗等での検査では、大掛かりな設備を設置することは現実的ではない。 However, in order to perform the inspection as disclosed in Patent Document 1, not only various sensors but also large-scale equipment such as a conveyor for inspection is required. In this respect, it is relatively easy to install large-scale equipment for each product in the inspection at the shipping stage in factories and the like. On the other hand, it is not realistic to install large-scale equipment in inspections at distribution centers, retail stores, etc., where it is necessary to detect damage to various products during transportation.

このような事情から、物流センター等では、仕分けやピッキングのタイミングで、人手による検査が行われる。しかしながら、人手による検査では、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することになる。このように、作業者の主観に依存して検査が行われた場合、その検査における判断の根拠を、客観的に説明することは困難である。また、作業者の主観に依存した検査では、例えば、作業者毎の熟練度の相違や、作業者の体調といった要因が影響して、検査精度が安定しないおそれもある。このように、検査精度が安定しない場合、検査結果に誤りが生じ、包装容器が破損しているにも関わらず消費者のもとに届くようなこととなり、最終的に、消費者からのクレームの発生等の問題が生じることになる。 Under these circumstances, at distribution centers and the like, manual inspections are carried out at the timing of sorting and picking. However, in the manual inspection, the inspection accuracy depends on the personal feeling (that is, the subjectivity of the worker). As described above, when the inspection is performed depending on the subjectivity of the worker, it is difficult to objectively explain the basis of the judgment in the inspection. Further, in the inspection depending on the subjectivity of the worker, the inspection accuracy may not be stable due to factors such as the difference in the skill level of each worker and the physical condition of the worker. In this way, if the inspection accuracy is not stable, the inspection result will be incorrect, and the packaging container will be delivered to the consumer even though it is damaged, and finally, the complaint from the consumer. Will occur.

本発明は、このような状況に鑑みてなされたものである。そして、本発明の課題は、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することである。 The present invention has been made in view of such a situation. An object of the present invention is to realize an inspection with stable accuracy based on an objective index when inspecting for damage.

上記課題を解決するため、本発明の一実施形態に係る状態判定システムは、
操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御手段と、
前記動作制御手段が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定手段と、
前記判定手段の判定結果を前記ユーザに対して通知する通知手段と、
を備えることを特徴とする。
In order to solve the above problems, the state determination system according to the embodiment of the present invention is
The actuator on the operation mechanism side that operates the operation mechanism, and
The actuator on the gripping mechanism side that operates the gripping mechanism,
By driving the gripping mechanism side actuator in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the inspection target, and the inspection target input to the gripping mechanism. An operation control means for performing an operation control in which the operation mechanism controls an operation of transmitting the reaction force to the user by driving the actuator on the operation mechanism side in response to a reaction force from an object.
A determination means for determining damage to the inspection object based on the control parameters used by the operation control means in the operation control, and a determination means.
A notification means for notifying the user of the determination result of the determination means, and
It is characterized by having.

本発明によれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。 According to the present invention, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.

本発明の一実施形態に係る状態判定システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the state determination system which concerns on one Embodiment of this invention. 制御対象装置の動作の制御の基本的原理の概念を示す模式図である。It is a schematic diagram which shows the concept of the basic principle of control of the operation of the controlled object apparatus. 力・触覚伝達機能が定義された場合の制御の概念を示す模式図である。It is a schematic diagram which shows the concept of control when a force / tactile transmission function is defined. マスタ・スレーブシステムの概念を示す模式図である。It is a schematic diagram which shows the concept of a master-slave system. 動作の抽出結果として記憶される情報例を示す模式図である。It is a schematic diagram which shows the example of the information which is stored as the extraction result of an operation. 周波数領域におけるスケーリングを用いた力・触覚伝達機能の制御の概念を示す模式図である。It is a schematic diagram which shows the concept of control of a force / tactile transmission function using scaling in a frequency domain. 状態判定装置の基本的構成を示す模式図である。It is a schematic diagram which shows the basic structure of the state determination apparatus. 状態判定処理を実現するための、制御ユニットのハードウェア及び機能ブロックの一例を示すブロック図である。It is a block diagram which shows an example of the hardware and the functional block of a control unit for realizing the state determination process. 状態判定処理を実現するための、ウェアラブル端末のハードウェア及び機能ブロックの一例を示すブロック図である。It is a block diagram which shows an example of the hardware and the functional block of a wearable terminal for realizing the state determination process. 状態判定処理を実現するための、サーバ装置のハードウェア及び機能ブロックの一例を示すブロック図である。It is a block diagram which shows an example of the hardware and the functional block of a server device for realizing the state determination process. 状態判定処理における前処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the pre-processing in the state determination processing. 状態判定処理における把持開始処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the gripping start processing in the state determination processing. 状態判定処理における判定処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the determination process in the state determination process. 検査対象物が破損していないと判定された場合の通知例を示す模式図である。It is a schematic diagram which shows the notification example when it is determined that the inspection object is not damaged. 検査対象物が破損していると判定された場合の通知例を示す模式図である。It is a schematic diagram which shows the notification example when it is determined that the inspection object is damaged. 状態判定処理における把持終了処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the gripping end processing in the state determination processing. 第2実施形態での、制御ユニットのハードウェア及び機能ブロックの一例を示すブロック図である。It is a block diagram which shows an example of the hardware and the functional block of a control unit in 2nd Embodiment. 第2実施形態での、ウェアラブル端末のハードウェア及び機能ブロックの一例を示すブロック図である。It is a block diagram which shows an example of the hardware and the functional block of a wearable terminal in 2nd Embodiment. 第2実施形態での、機械学習処理における前処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the pre-processing in the machine learning processing in the 2nd Embodiment. 第2実施形態での、機械学習処理における構築処理の流れを説明するフローチャートであるIt is a flowchart explaining the flow of the construction process in the machine learning process in the 2nd Embodiment. 第2実施形態での、状態判定処理における前処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the pre-processing in the state determination processing in 2nd Embodiment. 第2実施形態での、状態判定処理における判定処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the determination process in the state determination process in 2nd Embodiment.

以下、添付の図面を参照して本発明の実施形態の一例である第1実施形態と第2実施形態のそれぞれについて説明する。 Hereinafter, each of the first embodiment and the second embodiment, which are examples of the embodiments of the present invention, will be described with reference to the accompanying drawings.

<第1実施形態>
[システム構成]
図1は、本実施形態に係る状態判定システムSの全体構成を示すブロック図である。図1に示すように、状態判定システムSは、状態判定装置1、ウェアラブル端末2、及びサーバ装置3を含む。また、図中には、ユーザU、ネットワークN、及び検査対象物4も図示する。
<First Embodiment>
[System configuration]
FIG. 1 is a block diagram showing an overall configuration of a state determination system S according to the present embodiment. As shown in FIG. 1, the state determination system S includes a state determination device 1, a wearable terminal 2, and a server device 3. In addition, the user U, the network N, and the inspection object 4 are also shown in the figure.

これら状態判定装置1、ウェアラブル端末2、及びサーバ装置3は、それぞれ相互に通信可能に接続される。これら各装置の間での通信は、任意の通信方式に準拠して行われてよく、その通信方式は特に限定されない。また、これら各装置の間での通信は、無線通信であってもよく、有線通信であってもよく、あるいは、有線通信と無線通信の組み合わせであってもよい。加えて、これら各装置の間での通信は、装置間で直接行われてもよいし、ネットワークNや、図示しない中継装置を介して行われてもよい。ネットワークNは、例えば、LAN(Local Area Network)や、インターネットや、携帯電話網といったネットワークにより実現される。 The state determination device 1, the wearable terminal 2, and the server device 3 are connected to each other so as to be communicable with each other. Communication between these devices may be performed in accordance with any communication method, and the communication method is not particularly limited. Further, the communication between each of these devices may be wireless communication, wired communication, or a combination of wired communication and wireless communication. In addition, communication between each of these devices may be performed directly between the devices, or may be performed via a network N or a relay device (not shown). The network N is realized by, for example, a network such as a LAN (Local Area Network), the Internet, or a mobile telephone network.

状態判定装置1は、ユーザUによる検査対象物4の破損に関する検査を補助する装置である。状態判定装置1は、ユーザUの操作に基づいて、検査対象物4を把持する把持装置としての機能を実現すると共に、その把持において用いられた力触覚に関する制御パラメータに基づいて、検査対象物4が破損しているか否かを判定する。
以下では、説明のための一例として、状態判定装置1は、ユーザUによる近傍からの操作、又は遠隔からの操作(すなわち、テレオペレーション)が可能なロボットマニピュレーターで実現されることを想定する。より詳細には、状態判定装置1は、検査対象物4を把持するための把持機構を含むと共に、ユーザUが携帯して使用可能な可搬型のリーチャー(すなわち、マジックハンド)であることを想定する。このリーチャーとしての機能を実現するために、状態判定装置1は、ユーザUの操作を受け付ける操作機構55と、操作機構55をマスタ装置として動作させるためのマスタ側ユニット50と、検査対象物4を把持する把持機構65と、把持機構65をスレーブ装置として動作させるためのスレーブ側ユニット60と、これらの動作を統合的に制御する制御ユニット10とを含む。
The state determination device 1 is a device that assists the user U in inspecting the inspection target 4 for damage. The state determination device 1 realizes a function as a gripping device for gripping the inspection object 4 based on the operation of the user U, and the inspection object 4 is based on the control parameters related to the force and tactile sensation used in the gripping. Determines if is damaged.
In the following, as an example for explanation, it is assumed that the state determination device 1 is realized by a robot manipulator capable of a remote operation (that is, teleoperation) by the user U. More specifically, it is assumed that the state determination device 1 includes a gripping mechanism for gripping the inspection object 4 and is a portable reacher (that is, a magic hand) that can be carried and used by the user U. do. In order to realize the function as the reacher, the state determination device 1 includes an operation mechanism 55 that accepts the operation of the user U, a master side unit 50 for operating the operation mechanism 55 as a master device, and an inspection object 4. It includes a gripping mechanism 65 for gripping, a slave-side unit 60 for operating the gripping mechanism 65 as a slave device, and a control unit 10 for integrally controlling these operations.

状態判定装置1では、制御ユニット10を介して、マスタ側ユニット50と、スレーブ側ユニット60とが、相互に通信すると共に、制御ユニット10が備える動作制御部が動作の制御を行うことによって、一方がマスタ装置(ここでは、ユーザUの操作を受け付ける装置)として動作し、他方がスレーブ装置(ここでは、ロボットマニピュレーターとして検査対象物4を把持する装置)として動作する。この場合に、ユーザUは、スレーブ装置の動作を、直接又は動画等により観察しながらマスタ装置を操作することにより、近傍からの操作、又は遠隔操作を実現する。また、このユーザによる操作時には、状態判定装置1が備える制御ユニット10が動作の制御を行うことによって、マスタ装置の動作(ここでは、操作機構55が受け付けたユーザUによる操作)をスレーブ装置に伝達すると共に、スレーブ装置に対する物体からの反力(ここでは、把持機構65の把持に対する検査対象物4からの反力)の入力をマスタ装置にフィードバックする機能(すなわち、バイラテラル制御機能)が実現される。 In the state determination device 1, the master side unit 50 and the slave side unit 60 communicate with each other via the control unit 10, and the operation control unit included in the control unit 10 controls the operation. Operates as a master device (here, a device that accepts the operation of the user U), and the other operates as a slave device (here, a device that grips the inspection object 4 as a robot manipulator). In this case, the user U realizes an operation from a vicinity or a remote operation by operating the master device while observing the operation of the slave device directly or by moving images or the like. Further, at the time of operation by this user, the control unit 10 included in the state determination device 1 controls the operation, so that the operation of the master device (here, the operation by the user U accepted by the operation mechanism 55) is transmitted to the slave device. At the same time, a function (that is, a bilateral control function) of feeding back the input of the reaction force from the object to the slave device (here, the reaction force from the inspection object 4 with respect to the grip of the grip mechanism 65) to the master device is realized. To.

ここで、操作機構55の具体的な構成は特に限定されないが、例えば、ユーザUの手等による、握る、滑らせる(すなわち、スライドさせる)、捻る、あるいは押す等の、力触覚を伴う操作を受け付ける機構により実現することができる。また、同様に、把持機構65の具体的な構成は特に限定されないが、例えば、上述したようなユーザUの力触覚を伴う操作に応じて、検査対象物4を把持する部材が、開閉する、回転する、あるいは、昇降する等の力触覚を伴う把持を行う機構により実現することができる。
ただし、これら操作機構55及び把持機構65の構成は例示に過ぎず、ユーザUの操作における力触覚及び把持における力触覚を、制御パラメータとしてマスタ装置とスレーブ装置間で相互に伝達可能とする構成であればよい。すなわち、これら操作機構55及び把持機構65の具体的な構成は、上述の例示には特に限定されない。
Here, the specific configuration of the operation mechanism 55 is not particularly limited, but for example, an operation accompanied by a force-tactile sensation such as grasping, sliding (that is, sliding), twisting, or pushing by the hand of the user U or the like is performed. It can be realized by the receiving mechanism. Similarly, the specific configuration of the gripping mechanism 65 is not particularly limited, but for example, the member that grips the inspection object 4 opens and closes in response to the operation accompanied by the force-tactile sensation of the user U as described above. It can be realized by a mechanism for gripping with a force-tactile sensation such as rotation or ascending / descending.
However, the configurations of the operation mechanism 55 and the grip mechanism 65 are merely examples, and the configuration is such that the force tactile sensation in the operation of the user U and the force tactile sensation in the grip can be mutually transmitted between the master device and the slave device as control parameters. All you need is. That is, the specific configurations of the operating mechanism 55 and the gripping mechanism 65 are not particularly limited to the above-mentioned examples.

ウェアラブル端末2は、ユーザUに対して、検査対象物4の破損に関する検査を補助するための各種の情報(例えば、状態判定装置1による判定結果や、判定結果に対応した作業指示等)や、ユーザインタフェース等を通知する装置である。ウェアラブル端末2は、例えば、ユーザUの頭部に装着されて使用されるヘッドマウントディスプレイ(HMD:Head Mounted Display)により実現される。このようなヘッドマウントディスプレイでは、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)、あるいは、複合現実(MR:Mixed Reality)といった技術を利用して、ユーザUに対する通知を行うことが可能である。例えば、拡張現実の技術を利用する場合、透過型のディスプレイを介してユーザUが視認できる現実の景色と、透過型ディスプレイに表示される仮想現実(例えば、仮想的に生成された画像やテキスト等を含む)とを重畳して、ユーザUに対して通知をすることができる。 The wearable terminal 2 provides the user U with various information for assisting the inspection regarding the damage of the inspection object 4 (for example, the determination result by the state determination device 1, the work instruction corresponding to the determination result, etc.). It is a device that notifies the user interface and the like. The wearable terminal 2 is realized by, for example, a head-mounted display (HMD: Head Mounted Display) that is mounted on the head of the user U and used. In such a head-mounted display, the user U is notified by using a technology such as virtual reality (VR), augmented reality (AR), or mixed reality (MR). Is possible. For example, when using augmented reality technology, the actual scenery that can be seen by the user U through the transmissive display and the virtual reality displayed on the transmissive display (for example, virtually generated images and texts, etc.) Can be superimposed to notify the user U.

また、ウェアラブル端末2による通知は、このようなウェアラブル端末2が備えるディスプレイへの表示のみならず、ウェアラブル端末2が備えるスピーカからの音(音声や警告音等)の出力や、ウェアラブル端末2が備える警告灯の点滅等により実現することもできる。
なお、ウェアラブル端末2によるこれらの処理は、ウェアラブル端末2と、状態判定装置1と、サーバ装置3と、が通信を行い、これらが協働することによって実現される。
Further, the notification by the wearable terminal 2 includes not only the display on the display included in the wearable terminal 2 but also the output of the sound (voice, warning sound, etc.) from the speaker included in the wearable terminal 2 and the wearable terminal 2. It can also be realized by blinking the warning light.
It should be noted that these processes by the wearable terminal 2 are realized by the wearable terminal 2, the state determination device 1, and the server device 3 communicating with each other and cooperating with each other.

サーバ装置3は、状態判定装置1と、ウェアラブル端末2とにより行われる処理に用いる情報を管理したり、画像認識により検査対象物4を識別したりするサーバである。なお。図中では、サーバ装置3を単一のサーバ装置として図示するが、例えば、クラウドサーバ等の形態で複数のサーバ装置によってサーバ装置3を実現するようにしてもよい。 The server device 3 is a server that manages information used for processing performed by the state determination device 1 and the wearable terminal 2 and identifies the inspection object 4 by image recognition. note that. In the figure, the server device 3 is shown as a single server device, but for example, the server device 3 may be realized by a plurality of server devices in the form of a cloud server or the like.

検査対象物4は、ユーザUによる破損に関する検査の対象となる物品である。検査対象物4は、特に限定されないが、以下では説明のための一例として、検査対象物4は、食品(例えば、ポテトチップス等のお菓子)等を内容物として包装する包装容器であることを想定する。ここで、このような包装容器では、食品等の劣化(例えば、酸化)や、破損を防止するために、酸素に代えて二酸化炭素や窒素ガスが内容物として充填されている。本実施形態では、このような包装容器を検査対象物4として破損に関する検査を行うことにより、内容物である、二酸化炭素や窒素ガスの漏れ(いわゆる空気漏れ)を検出したり、食品等が流体のような場合に、この流体である食品等の漏れを検出したりすることができる。これにより、空気漏れ等に伴う内容物の劣化や内容物の流出を、製品が消費者のもとに届く前に発見でき、製品としての品質を保証することが可能となる。 The inspection object 4 is an article to be inspected for damage by the user U. The inspection object 4 is not particularly limited, but as an example for explanation below, the inspection object 4 is a packaging container for packaging food (for example, sweets such as potato chips) and the like as contents. Suppose. Here, in such a packaging container, carbon dioxide or nitrogen gas is filled as a content instead of oxygen in order to prevent deterioration (for example, oxidation) or damage of food or the like. In the present embodiment, by inspecting such a packaging container as an inspection object 4 for damage, leakage of carbon dioxide or nitrogen gas (so-called air leakage), which is the content, can be detected, or food or the like can be fluid. In such a case, it is possible to detect leakage of food or the like which is this fluid. As a result, deterioration of the contents and outflow of the contents due to air leakage can be detected before the product reaches the consumer, and the quality of the product can be guaranteed.

次に、このような構成を有する状態判定システムSによる、検査対象物4の破損に関する検査を補助するための処理の概要について説明する。
まず、状態判定システムSは、ユーザUの操作に基づいて状態判定装置1の動作を制御(ここでは、バイラテラル制御機能による制御)することにより、状態判定装置1に検査対象物4を把持させる。また、状態判定システムSは、状態判定装置1の制御で用いた、力触覚に関する制御パラメータを取得する。さらに、状態判定システムSは、取得した力触覚に関する制御パラメータに基づいて、検査対象物の破損に関する判定をする。そして、状態判定システムSは、判定部114の判定結果をユーザに対して通知する。
Next, the outline of the process for assisting the inspection regarding the damage of the inspection object 4 by the state determination system S having such a configuration will be described.
First, the state determination system S controls the operation of the state determination device 1 based on the operation of the user U (here, control by the bilateral control function), so that the state determination device 1 grips the inspection object 4. .. Further, the state determination system S acquires control parameters related to force and tactile sensation used in the control of the state determination device 1. Further, the state determination system S determines the damage of the inspection object based on the acquired control parameters related to the force and tactile sensation. Then, the state determination system S notifies the user of the determination result of the determination unit 114.

このように、状態判定システムSは、検査対象物4を状態判定装置1で把持した際の力触覚に関する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, the state determination system S objectively determines the damage of the inspection object 4 based on the control parameters related to the force and tactile sensation when the inspection object 4 is gripped by the state determination device 1. Therefore, the state determination system S can visualize the work by converting the sensation in the work (here, the force and tactile sensation) into data. As a result, the inspection accuracy does not depend on the personal feeling (that is, the subjectivity of the operator), and the inspection can be performed with stable accuracy. Further, since it has such a configuration, the state determination system S can be easily realized without requiring large-scale equipment such as various sensors and a conveyor for inspection. Therefore, it is possible to apply various products to inspections performed at distribution centers, retail stores, etc. for finding damage during transportation.
That is, according to the state determination system S, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.

[制御対象装置に対する動作制御]
次に、上述した状態判定システムSでの具体的な処理の説明の前提として、本実施形態における、制御対象装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、操作機構55、スレーブ側ユニット60、及び把持機構65)に対する動作制御の基本的原理について説明する。
[Operation control for controlled device]
Next, as a premise of the description of the specific processing in the above-mentioned state determination system S, the controlled target device (here, the master side unit 50, the operation mechanism 55, and the slave provided in the state determination device 1) in the present embodiment. The basic principle of operation control for the side unit 60 and the gripping mechanism 65) will be described.

なお、人間の動作(すなわち、人間の身体的行為)は、1つの関節等の個別の「機能」が単独で、あるいは組み合わされて構成されるものである。
したがって、以下、本実施形態において、「動作」とは、人間の身体における部位の個別の「機能」を構成要素として実現される統合的な機能を表すものとする。例えば、状態判定装置1に対する操作を伴う動作(例えば、手によって状態判定装置1が備える操作機構55を操作させる動作)は、手の各指や手首、及びこれらに連結する腕や肩の関節等の機能を構成要素とする統合的な機能である。
It should be noted that human movements (that is, human physical actions) are composed of individual "functions" such as one joint alone or in combination.
Therefore, hereinafter, in the present embodiment, the "motion" refers to an integrated function realized by using individual "functions" of parts in the human body as components. For example, an operation that involves an operation on the state determination device 1 (for example, an operation that causes the operation mechanism 55 included in the state determination device 1 to be operated by a hand) includes fingers and wrists of the hand, and joints of arms and shoulders connected to these. It is an integrated function whose components are the functions of.

(基本的原理)
本実施形態における動作の制御の基本的原理は、どのような動作も力源と速度(位置)源及び動作を表す変換の三要素で数理的に表現できることから、変換及び逆変換により定義される変数群に対し、双対関係にある理想力源及び理想速度(位置)源より制御エネルギーを制御対象のシステムに供給することで、抽出した動作を構造化し、再構築あるいは拡張増幅し動作を可逆的に自動実現(再現)する、というものである。
(Basic principle)
The basic principle of motion control in this embodiment is defined by transformation and inverse transformation because any motion can be mathematically expressed by three elements of force source, velocity (position) source, and transformation representing motion. By supplying control energy to the controlled system from the ideal force source and ideal velocity (position) source that are in a dual relationship with respect to the variable group, the extracted motion is structured, reconstructed or expanded and amplified, and the motion is reversible. It is automatically realized (reproduced).

図2は、本実施形態における制御対象装置の動作の制御の基本的原理の概念を示す模式図である。
図2に示す基本的原理は、人間の動作を実現するために利用可能なアクチュエータ(ここでは、状態判定装置1が備える把持機構65を動作させるためのアクチュエータ)の制御則を表しており、アクチュエータの現在位置を入力として、位置(又は速度)あるいは力の少なくとも一方の領域における演算を行うことにより、アクチュエータの動作を決定するものである。
すなわち、本実施形態における制御対象装置の動作の制御の基本的原理は、制御対象システムCSと、機能別力・速度割当変換ブロックFTと、理想力源ブロックFCあるいは理想速度(位置)源ブロックPCの少なくとも1つと、逆変換ブロックIFTとを含む制御則として表される。
FIG. 2 is a schematic diagram showing the concept of the basic principle of controlling the operation of the controlled object device in the present embodiment.
The basic principle shown in FIG. 2 represents a control rule of an actuator that can be used to realize human movement (here, an actuator for operating the gripping mechanism 65 included in the state determination device 1). The operation of the actuator is determined by performing an operation in at least one region of the position (or velocity) or the force with the current position of the actuator as an input.
That is, the basic principle of controlling the operation of the controlled target device in the present embodiment is the controlled target system CS, the force / speed allocation conversion block FT for each function, the ideal power source block FC, or the ideal speed (position) source block PC. It is expressed as a control rule including at least one of the above and the inverse conversion block IFT.

制御対象システムCSは、アクチュエータによって作動するロボット(ここでは、状態判定装置1)であり、加速度等に基づいてアクチュエータの制御を行う。ここで、制御対象システムCSは、人間の身体における1つ又は複数の部位の機能を実現するものであるが、その機能を実現するための制御則が適用されていれば、具体的な構成は必ずしも人間の身体を模した形態でなくてもよい。例えば、制御対象システムCSは、アクチュエータによってリンクに一次元のスライド動作を行わせるロボットとすることができる。 The controlled object system CS is a robot operated by an actuator (here, a state determination device 1), and controls the actuator based on acceleration or the like. Here, the controlled target system CS realizes the function of one or a plurality of parts in the human body, but if the control rule for realizing the function is applied, the specific configuration is It does not necessarily have to be a form that imitates the human body. For example, the controlled object system CS can be a robot that causes a link to perform a one-dimensional sliding motion by an actuator.

機能別力・速度割当変換ブロックFTは、制御対象システムCSの機能に応じて設定される速度(位置)及び力の領域への制御エネルギーの変換を定義するブロックである。具体的には、機能別力・速度割当変換ブロックFTでは、制御対象システムCSの機能の基準となる値(基準値)と、アクチュエータの現在位置とを入力とする座標変換が定義されている。この座標変換は、一般に、基準値及び現在速度(位置)を要素とする入力ベクトルを速度(位置)の制御目標値を算出するための速度(位置)からなる出力ベクトルに変換すると共に、基準値及び現在の力を要素とする入力ベクトルを力の制御目標値を算出するための力からなる出力ベクトルに変換するものである。具体的には、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(1)及び(2)のように一般化して表される。 The function-specific force / velocity allocation conversion block FT is a block that defines the conversion of control energy into a region of speed (position) and force set according to the function of the controlled target system CS. Specifically, in the function-specific force / velocity allocation conversion block FT, coordinate conversion is defined in which a reference value (reference value) of the function of the controlled target system CS and the current position of the actuator are input. In general, this coordinate conversion converts an input vector having a reference value and a current velocity (position) as elements into an output vector consisting of a velocity (position) for calculating a control target value of the velocity (position), and also converts the reference value. And the input vector whose element is the current force is converted into the output vector consisting of the force for calculating the control target value of the force. Specifically, the coordinate conversion in the function-specific force / velocity allocation conversion block FT is expressed in a generalized manner as in the following equations (1) and (2).

Figure 2022087045000002
Figure 2022087045000002

ただし、式(1)において、x’1~x’n(nは1以上の整数)は速度の状態値を導出するための速度ベクトルであり、x’a~x’m(mは1以上の整数)は、基準値及びアクチュエータの作用に基づく速度(アクチュエータの移動子の速度又はアクチュエータが移動させる対象物の速度)を要素とするベクトル、h1a~hnmは機能を表す変換行列の要素である。また、式(2)において、f’’1~f’’n(nは1以上の整数)は力の状態値を導出するための力ベクトルであり、f’’a~f’’m(mは1以上の整数)は、基準値及びアクチュエータの作用に基づく力(アクチュエータの移動子の力又はアクチュエータが移動させる対象物の力)を要素とするベクトルである。 However, in the equation ( 1 ), x'1 to x'n ( n is an integer of 1 or more) is a velocity vector for deriving the state value of the velocity, and x'a to x'm ( m is 1 or more). (Integer) is a vector whose element is the velocity based on the reference value and the action of the actuator (the velocity of the mover of the actuator or the velocity of the object moved by the actuator), and h 1a to h nm is an element of the transformation matrix representing the function. Is. Further, in the equation (2), f''1 to f''n ( n is an integer of 1 or more) is a force vector for deriving the state value of the force, and f''a to f''m (n). m is an integer of 1 or more) is a vector whose elements are the reference value and the force based on the action of the actuator (the force of the mover of the actuator or the force of the object moved by the actuator).

機能別力・速度割当変換ブロックFTにおける座標変換を、実現する機能に応じて設定することにより、各種動作を実現したり、スケーリングを伴う動作の再現を行ったりすることができる。
すなわち、本実施形態における制御対象装置の動作の制御の基本的原理では、機能別力・速度割当変換ブロックFTにおいて、アクチュエータ単体の変数(実空間上の変数)を、実現する機能を表現するシステム全体の変数群(仮想空間上の変数)に“変換”し、速度(位置)の制御エネルギーと力の制御エネルギーとに制御エネルギーを割り当てる。そのため、アクチュエータ単体の変数(実空間上の変数)のまま制御を行う場合と比較して、速度(位置)の制御エネルギーと力の制御エネルギーとを独立に与えることが可能となっている。
By setting the coordinate conversion in the function-specific force / speed allocation conversion block FT according to the function to be realized, various operations can be realized and the operation accompanied by scaling can be reproduced.
That is, in the basic principle of controlling the operation of the controlled device in the present embodiment, the system expressing the function of realizing the variable (variable in the real space) of the actuator alone in the function-specific force / velocity allocation conversion block FT. It "converts" to the entire set of variables (variables in virtual space), and allocates control energy to the control energy of velocity (position) and the control energy of force. Therefore, it is possible to independently give the control energy of the velocity (position) and the control energy of the force as compared with the case where the control is performed with the variable (variable in the real space) of the actuator alone.

理想力源ブロックFCは、機能別力・速度割当変換ブロックFTによって定義された座標変換に従って、力の領域における演算を行うブロックである。理想力源ブロックFCにおいては、機能別力・速度割当変換ブロックFTによって定義された座標変換に基づく演算を行う際の力に関する目標値が設定されている。この目標値は、実現される機能に応じて固定値又は可変値として設定される。例えば、基準値が示す機能と同様の機能を実現する場合には、目標値としてゼロを設定したり、スケーリングを行う場合には、再現する機能を示す情報を拡大・縮小した値を設定したりできる。 The ideal force source block FC is a block that performs operations in the force region according to the coordinate transformation defined by the functional force / velocity allocation conversion conversion block FT. In the ideal force source block FC, a target value related to the force when performing a calculation based on the coordinate transformation defined by the functional force / velocity allocation conversion conversion block FT is set. This target value is set as a fixed value or a variable value depending on the function to be realized. For example, when realizing the same function as the reference value, set zero as the target value, and when scaling, set the enlarged / reduced value of the information indicating the function to be reproduced. can.

理想速度(位置)源ブロックPCは、機能別力・速度割当変換ブロックFTによって定義された座標変換に従って、速度(位置)の領域における演算を行うブロックである。理想速度(位置)源ブロックPCにおいては、機能別力・速度割当変換ブロックFTによって定義された座標変換に基づく演算を行う際の速度(位置)に関する目標値が設定されている。この目標値は、実現される機能に応じて固定値又は可変値として設定される。例えば、基準値が示す機能と同様の機能を実現する場合には、目標値としてゼロを設定したり、スケーリングを行う場合には、再現する機能を示す情報を拡大・縮小した値を設定したりできる。 The ideal velocity (position) source block PC is a block that performs an operation in the area of velocity (position) according to the coordinate transformation defined by the function-specific force / velocity allocation conversion block FT. In the ideal speed (position) source block PC, a target value regarding the speed (position) when performing a calculation based on the coordinate conversion defined by the function-specific force / speed allocation conversion block FT is set. This target value is set as a fixed value or a variable value depending on the function to be realized. For example, when realizing the same function as the reference value, set zero as the target value, and when scaling, set the enlarged / reduced value of the information indicating the function to be reproduced. can.

逆変換ブロックIFTは、速度(位置)及び力の領域の値を制御対象システムCSへの入力の領域の値(例えば電圧値又は電流値等)に変換するブロックである。
このような基本的原理により、制御対象システムCSのアクチュエータにおける位置の情報が機能別力・速度割当変換ブロックFTに入力されると、位置の情報に基づいて得られる速度(位置)及び力の情報を用いて、機能別力・速度割当変換ブロックFTにおいて、機能に応じた位置及び力の領域それぞれの制御則が適用される。そして、理想力源ブロックFCにおいて、機能に応じた力の演算が行われ、理想速度(位置)源ブロックPCにおいて、機能に応じた速度(位置)の演算が行われ、力及び速度(位置)それぞれに制御エネルギーが分配される。
The inverse conversion block IFT is a block that converts the values in the region of velocity (position) and force into the values in the region of input to the controlled system CS (for example, voltage value or current value).
Based on such a basic principle, when the position information in the actuator of the controlled target system CS is input to the function-specific force / speed allocation conversion block FT, the speed (position) and force information obtained based on the position information is obtained. In the function-specific force / velocity allocation conversion block FT, the control rules for each of the position and force regions according to the function are applied. Then, in the ideal power source block FC, the force is calculated according to the function, and in the ideal speed (position) source block PC, the speed (position) is calculated according to the function, and the force and the speed (position) are calculated. Control energy is distributed to each.

理想力源ブロックFC及び理想速度(位置)源ブロックPCにおける演算結果は、制御対象システムCSの制御目標を示す情報となり、これらの演算結果が逆変換ブロックIFTにおいてアクチュエータの入力値とされて、制御対象システムCSに入力される。
その結果、制御対象システムCSのアクチュエータは、機能別力・速度割当変換ブロックFTによって定義された機能に従う動作を実行し、目的とするロボットの動作が実現される。
すなわち、本実施形態においては、ロボット(ここでは、状態判定装置1)によって所定の行為時の人間の動作をより適切に実現することが可能となる。
The calculation results in the ideal force source block FC and the ideal speed (position) source block PC are information indicating the control target of the controlled target system CS, and these calculation results are used as input values of the actuator in the inverse conversion block IFT for control. It is input to the target system CS.
As a result, the actuator of the controlled target system CS executes the operation according to the function defined by the function-specific force / speed allocation conversion block FT, and the target robot operation is realized.
That is, in the present embodiment, the robot (here, the state determination device 1) can more appropriately realize the human movement at the time of a predetermined action.

(定義される機能例)
次に、機能別力・速度割当変換ブロックFTによって定義される機能の具体例について説明する。
機能別力・速度割当変換ブロックFTでは、入力されたアクチュエータの現在位置に基づいて得られる速度(位置)及び力を対象とした座標変換(実現する機能に対応した実空間から仮想空間への変換)が定義されている。
機能別力・速度割当変換ブロックFTでは、このような現在位置から速度(位置)及び力と、機能の基準値としての速度(位置)及び力とを入力として、速度(位置)及び力それぞれについての制御則が加速度次元において適用される。
すなわち、アクチュエータにおける力は質量と加速度との積で表され、アクチュエータにおける速度(位置)は加速度の積分によって表される。そのため、加速度の領域を介して、速度(位置)及び力を制御することで、アクチュエータの現在位置を取得して、目的とする機能を実現することができる。
(Example of defined function)
Next, a specific example of the function defined by the force / speed allocation conversion block FT for each function will be described.
In the function-specific force / velocity allocation conversion block FT, the speed (position) obtained based on the current position of the input actuator and the coordinate conversion targeting the force (conversion from real space to virtual space corresponding to the realized function). ) Is defined.
In the function-specific force / velocity allocation conversion block FT, the velocity (position) and force from the current position and the velocity (position) and force as the reference value of the function are input, and the velocity (position) and force are respectively. The control law of is applied in the acceleration dimension.
That is, the force in the actuator is represented by the product of mass and acceleration, and the velocity (position) in the actuator is represented by the integral of acceleration. Therefore, by controlling the velocity (position) and the force through the region of acceleration, the current position of the actuator can be acquired and the desired function can be realized.

以下、各種機能の具体的な例を説明する。
(力・触覚伝達機能)
図3は、機能別力・速度割当変換ブロックFTにおいて力・触覚伝達機能が定義された場合の制御の概念を示す模式図である。また、図4は、力・触覚伝達機能が適用されるマスタ装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、及び操作機構55)及びスレーブ装置(ここでは、状態判定装置1が備える、状態判定装置1が備える、スレーブ側ユニット60、及び把持機構65)を含むマスタ・スレーブシステムの概念を示す模式図である。
Specific examples of various functions will be described below.
(Force / tactile transmission function)
FIG. 3 is a schematic diagram showing the concept of control when the force / tactile transmission function is defined in the function-specific force / speed allocation conversion block FT. Further, FIG. 4 shows a master device (here, the master side unit 50 and the operation mechanism 55 included in the state determination device 1) and a slave device (here, the state determination device 1) to which the force / tactile transmission function is applied. It is a schematic diagram which shows the concept of the master-slave system including the slave side unit 60, and the gripping mechanism 65) provided with the state determination apparatus 1.

図4に示すように、機能別力・速度割当変換ブロックFTによって定義される機能として、マスタ装置の動作をスレーブ装置に伝達すると共に、スレーブ装置に対する物体(例えば、検査対象物4)からの反力の入力をマスタ装置にフィードバックする機能(バイラテラル制御機能)を実現することができる。
この場合、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(3)及び(4)として表される。
As shown in FIG. 4, as a function defined by the force / speed allocation conversion block FT for each function, the operation of the master device is transmitted to the slave device, and the reaction from the object (for example, the inspection object 4) to the slave device is performed. It is possible to realize a function (bilateral control function) of feeding back the force input to the master device.
In this case, the coordinate conversion in the function-specific force / velocity allocation conversion block FT is expressed by the following equations (3) and (4).

Figure 2022087045000003
Figure 2022087045000003

ただし、式(3)において、x’pは速度(位置)の状態値を導出するための速度、x’fは力の状態値に関する速度である。また、x’mは基準値(マスタ装置からの入力)の速度(マスタ装置の現在位置の微分値)、x’sはスレーブ装置の現在の速度(現在位置の微分値)である。また、式(4)において、fpは速度(位置)の状態値に関する力、ffは力の状態値を導出するための力である。また、fmは基準値(マスタ装置からの入力)の力、fsはスレーブ装置の現在の力である。 However, in the equation (3), x'p is the velocity for deriving the state value of the velocity (position), and x'f is the velocity related to the state value of the force. Further, x'm is the speed of the reference value (input from the master device) (differential value of the current position of the master device), and x's is the current speed of the slave device (differential value of the current position). Further, in the equation (4), f p is a force related to the state value of the velocity (position), and f f is a force for deriving the state value of the force. Further, f m is the force of the reference value (input from the master device), and f s is the current force of the slave device.

(動作の抽出機能)
次に、本実施形態によって実現される人間の動作の抽出機能について詳細に説明する。
(基本原理)として上述したようにすれば、所定の機構のロボット(例えば、人間の身体の機能に対応する機構のロボット)を構成し、人間の動作をこのロボットに追従させて、その際のこのロボットの時系列の動作を検出することで、人間の動作を抽出することが可能となる。
(Action extraction function)
Next, the extraction function of human motion realized by this embodiment will be described in detail.
As described above as (basic principle), a robot having a predetermined mechanism (for example, a robot having a mechanism corresponding to the function of the human body) is configured, and human movements are made to follow this robot. By detecting the time-series movements of this robot, it is possible to extract human movements.

例えば、図1に示すような状態判定装置1の場合、人間が手を動かして状態判定装置1を操作する動作に追従して、状態判定装置1が備える複数のアクチュエータ(後述の図7にて図示する。)それぞれが動いた際の、それぞれのアクチュエータの位置を時系列に複数の位置センサ(後述の図7にて図示する。)で検出し、これらの位置を記憶装置に記憶しておく。
この場合に、それぞれのアクチュエータの位置の検出結果に代えて、機能別力・速度割当変換ブロックFTにおいて座標変換結果として得られる状態値を導出するための各値(例えば、時系列で算出された式(4)の左辺の各値)を記憶装置に記憶しておくこととしてもよい。
For example, in the case of the state determination device 1 as shown in FIG. 1, a plurality of actuators included in the state determination device 1 (see FIG. 7 described later) following the operation of a human moving the hand to operate the state determination device 1. (Illustrated.) The position of each actuator when each moves is detected by a plurality of position sensors (illustrated in FIG. 7 described later) in chronological order, and these positions are stored in a storage device. ..
In this case, instead of the detection result of the position of each actuator, each value (for example, calculated in time series) for deriving the state value obtained as the coordinate conversion result in the force / velocity allocation conversion conversion block FT for each function. Each value on the left side of the equation (4) may be stored in the storage device.

図5は、動作の抽出結果として記憶される情報例を示す模式図であり、図5(a)は複数のアクチュエータ(ここでは、アクチュエータA1~A4)の時系列の位置が記憶された場合、図5(b)は時系列の式(4)の座標変換結果が記憶された場合を示している。
図5(a)を参照すると、例えば、アクチュエータA1について、時刻t1では位置p1、時刻t2では位置p2、時刻t3では位置p3・・・と時系列の位置が記憶されている。
また、図5(b)を参照すると、例えば、座標変換結果x’’a1について、時刻t1では座標変換結果q1、時刻t2では座標変換結果q2、時刻t3では座標変換結果q3・・・と時系列の値が記憶されている。
これにより、人間が一度だけ実際に所定の行為における所定の動作を行えば、それ以降、この所定の動作を行わなくても、所定の動作の学習及び再現機能等の動作をロボットによって再現することができる。また、この所定の動作において用いられた力触覚に関する制御パラメータをログとして保存しておくことができる。
FIG. 5 is a schematic diagram showing an example of information stored as an operation extraction result, and FIG. 5A shows a case where the time-series positions of a plurality of actuators (here, actuators A1 to A4) are stored. FIG. 5B shows a case where the coordinate conversion result of the time-series equation (4) is stored.
Referring to FIG. 5A, for example, the actuator A1 stores a time-series position such as position p1 at time t1, position p2 at time t2, position p3 at time t3, and so on.
Further, referring to FIG. 5B, for example, regarding the coordinate conversion result x''a1 , the coordinate conversion result q1 at time t1, the coordinate conversion result q2 at time t2, the coordinate conversion result q3 at time t3, and so on. The series values are stored.
As a result, if a human actually performs a predetermined action in a predetermined action only once, the robot can reproduce the motion such as learning and reproduction function of the predetermined motion without performing the predetermined motion thereafter. Can be done. In addition, the control parameters related to the force and tactile sensation used in this predetermined operation can be saved as a log.

(スケーリング機能)
上述の力・触覚伝達機能において、位置、力及び時間のスケーリング機能をさらに実現することができる。
スケーリング機能とは、基準となる制御に対して、出力される位置、力あるいは時間のスケールを拡大あるいは縮小する機能である。スケーリング機能によって、例えば、マスタ装置の動きの大きさを縮小してスレーブ装置で再現したり、マスタ装置の動きの強さ(力)を強めてスレーブ装置で再現したり、あるいは、マスタ装置の動きの速度を低下させてスレーブ装置で再現したりすることができる。また、記憶装置に記憶された位置又は力の少なくとも一方の情報にスケーリング機能を用いることで、例えば、記憶された動きの大きさを縮小してスレーブ装置で再現したり、記憶された動きの強さ(力)を強めてスレーブ装置で再現したりすることができる。
以下、スケーリング機能を実現するための構成例について説明する。
(Scaling function)
In the above-mentioned force / tactile transmission function, the position, force and time scaling function can be further realized.
The scaling function is a function that expands or contracts the scale of the output position, force, or time with respect to the reference control. With the scaling function, for example, the magnitude of the movement of the master device can be reduced and reproduced on the slave device, the strength (force) of the movement of the master device can be increased and reproduced on the slave device, or the movement of the master device can be reproduced. It can be reproduced by a slave device by reducing the speed of. In addition, by using the scaling function for at least one of the information of the position or force stored in the storage device, for example, the magnitude of the stored movement can be reduced and reproduced by the slave device, or the strength of the stored movement can be achieved. It can be reproduced with a slave device by strengthening the memory (power).
Hereinafter, a configuration example for realizing the scaling function will be described.

(スケーリングを伴う力・触覚伝達機能)
スケーリングを伴う力・触覚伝達機能が実現される場合、図2における機能別力・速度割当変換ブロックFTにおける座標変換は、次式(5)及び(6)として表される。
(Force / tactile transmission function with scaling)
When the force / tactile transmission function accompanied by scaling is realized, the coordinate conversion in the function-specific force / velocity allocation conversion block FT in FIG. 2 is expressed by the following equations (5) and (6).

Figure 2022087045000004
Figure 2022087045000004

式(5)及び式(6)に示す座標変換とした場合、スレーブ装置の位置がα倍(αは正数)、スレーブ装置の力がβ倍(βは正数)されて、マスタ装置に伝達される。
このようなスケーリング機能によって、例えば、把持の際に、ユーザUの操作に伴う力触覚を抑制したり、強調したりすることができるため、より繊細な作業や、より力の必要な作業を行う場合に有効となる。
In the case of the coordinate conversion shown in the equations (5) and (6), the position of the slave device is multiplied by α (α is a positive number), the force of the slave device is multiplied by β (β is a positive number), and the master device is used. Be transmitted.
With such a scaling function, for example, when gripping, the force-tactile sensation associated with the operation of the user U can be suppressed or emphasized, so that more delicate work or work requiring more force can be performed. It will be effective if.

(スケーリングによる力の制限を伴う力・触覚伝達機能)
スケーリングによる力の制限を伴う力・触覚伝達機能が実現される場合、図2における機能別力・速度割当変換ブロックFTにおける座標変換は、例えば、次式(7)~(10)として表される。
なお、このような機能を実現する場合、以下のような条件を考慮することが適当である。
・速度次元まで連続であること(ヤコビ行列の存在条件)
・制限後の力が元の力の単調増加関数であること(安定性の条件)
・fs<aの時にはfs=fshatもしくはfs≒fshat(fshatは式(9)及び式(10)において機能別力・速度割当変換ブロックFTに含まれるパラメータ)
(安全領域での制御性能を保証する条件)
・飽和関数であること(ポジションリミットを実現する条件)
これらの条件を満たす他の関数として、atan関数を採用することも可能である。
(Force / tactile transmission function with force limitation due to scaling)
When the force / tactile transmission function with force limitation due to scaling is realized, the coordinate conversion in the function-specific force / velocity allocation conversion block FT in FIG. 2 is expressed by, for example, the following equations (7) to (10). ..
When realizing such a function, it is appropriate to consider the following conditions.
-Continuous up to the velocity dimension (existence condition of Jacobian determinant)
-The force after restriction is a monotonic increase function of the original force (stability condition)
・ When f s <a, f s = f shat or f s ≒ f shat (f shat is a parameter included in the functional force / velocity allocation conversion block FT in equations (9) and (10)).
(Conditions that guarantee control performance in the safe area)
・ Saturation function (condition to realize position limit)
It is also possible to adopt the atan function as another function that satisfies these conditions.

Figure 2022087045000005
Figure 2022087045000005

式(7)~式(10)に示す座標変換とした場合、スレーブ装置の力がa未満の場合、式(7)、(8)の座標変換を適用することで、スレーブ装置とマスタ装置とは同様の力に制御される。一方、スレーブ装置の力がa以上の場合、式(9)、(10)の座標変換を適用することで、スケーリング機能が作用し、スレーブ装置は(1/b+a)の力を超えないように制御される。
このようなスケーリング機能によって、例えば、本実施形態による処理において、把持における力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて安定した精度で判定を行うことが可能となる。また、検査対象物4の破損を回避することが可能となる。なお、上述した(7)~式(10)に示す座標変換において、例えば、スケーリングの対象を、力ではなく位置とすることで、位置の制限を伴う力・触覚伝達機能を実現することも可能である。
In the case of the coordinate transformations shown in the equations (7) to (10), if the force of the slave device is less than a, the slave device and the master device can be obtained by applying the coordinate transformations of the equations (7) and (8). Is controlled by a similar force. On the other hand, when the force of the slave device is a or more, the scaling function works by applying the coordinate transformations of the equations (9) and (10) so that the slave device does not exceed the force of (1 / b + a). Be controlled.
With such a scaling function, for example, in the process according to the present embodiment, it is possible to make a determination with stable accuracy based on a change in position (that is, a movement amount) while the force in gripping is constant. .. In addition, it is possible to avoid damage to the inspection object 4. In the coordinate transformations shown in the above-mentioned (7) to (10), for example, by setting the scaling target to the position instead of the force, it is possible to realize the force / tactile transmission function with the limitation of the position. Is.

(周波数領域におけるスケーリングを用いた力・触覚伝達機能)
図6は、周波数領域におけるスケーリングを用いた力・触覚伝達機能の制御の概念を示す模式図である。
図6において、マスタ装置及びスレーブ装置の出力は、ハイパスフィルタ(HPF)及びローパスフィルタ(LPF)をそれぞれ通過した後に、機能別力・速度割当変換ブロックFTに入力される。
機能別力・速度割当変換ブロックFTでは、ハイパスフィルタを通過したマスタ装置及びスレーブ装置の出力に対して、高周波域用の座標変換を適用し、ローパスフィルタを通過したマスタ装置及びスレーブ装置の出力に対して、低周波域用の座標変換を適用する。
すなわち、機能別力・速度割当変換ブロックFTは、マスタ装置及びスレーブ装置からの入力を高周波域及び低周波域の信号に分離し、それぞれの周波数域に対応する座標変換を適用する。
(Force / tactile transmission function using scaling in the frequency domain)
FIG. 6 is a schematic diagram showing the concept of controlling the force / tactile transmission function using scaling in the frequency domain.
In FIG. 6, the outputs of the master device and the slave device are input to the function-specific force / speed allocation conversion block FT after passing through the high-pass filter (HPF) and the low-pass filter (LPF), respectively.
In the function-specific force / speed allocation conversion block FT, coordinate conversion for the high frequency range is applied to the output of the master device and slave device that have passed the high-pass filter, and the output of the master device and slave device that has passed the low-pass filter is applied. On the other hand, the coordinate transformation for the low frequency range is applied.
That is, the function-specific force / speed allocation conversion block FT separates the inputs from the master device and the slave device into signals in the high frequency range and the low frequency range, and applies coordinate conversion corresponding to each frequency range.

図6に示すように、周波数領域におけるスケーリングを用いた力・触覚伝達機能が実現される場合、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(11)~(14)として表される。 As shown in FIG. 6, when the force / tactile transmission function using scaling in the frequency domain is realized, the coordinate conversion in the function-specific force / velocity allocation conversion block FT is expressed as the following equations (11) to (14). Will be done.

Figure 2022087045000006
Figure 2022087045000006

式(11)~式(14)に示す座標変換とした場合、低周波域では、式(11)、(12)の座標変換を適用することで、スレーブ装置とマスタ装置とは同様の位置となるように制御され、高周波域では、式(13)、(14)の座標変換を適用することで、スレーブ装置の位置がα倍(αは正数)、スレーブ装置の力がβ倍(βは正数)されて、マスタ装置に伝達される。
このようなスケーリング機能によって、例えば、スレーブ装置が、物体を貫通したり、破断したりする際の感覚を強調してマスタ装置に伝達することが可能となる。
In the case of the coordinate conversion shown in the equations (11) to (14), in the low frequency region, by applying the coordinate transformations of the equations (11) and (12), the slave device and the master device have the same position. In the high frequency range, by applying the coordinate transformations of equations (13) and (14), the position of the slave device is α times (α is a positive number) and the force of the slave device is β times (β). Is a positive number) and transmitted to the master device.
Such a scaling function enables, for example, the slave device to emphasize the sensation when penetrating or breaking an object and transmit it to the master device.

(時間のスケーリングを用いた機能の再現)
状態判定装置1による機能の再現において、学習して記憶されている機能を示す情報(例えば、図5に示す行為の抽出結果を表す時系列のデータ)を間引く、あるいは、補間する等して目標値とすることにより、時間のスケーリングを実現することができる。
具体的には、学習して記憶されている機能を示す情報を間引いた上で、理想力源ブロックFCあるいは理想速度(位置)源ブロックPCにおける演算の目標値として用いることにより、記憶されている機能(動作)を高速で再現することができる。同様に、学習して記憶されている機能を示す情報を補間した上で、目標値として用いることにより、記憶されている機能(動作)を低速で再現することができる。
(Reproduction of function using time scaling)
In the reproduction of the function by the state determination device 1, the target is to thin out or interpolate the information indicating the learned and stored function (for example, the time series data representing the extraction result of the action shown in FIG. 5). By setting it as a value, time scaling can be realized.
Specifically, it is stored by thinning out the information indicating the function learned and stored, and then using it as the target value of the calculation in the ideal power source block FC or the ideal speed (position) source block PC. Functions (operations) can be reproduced at high speed. Similarly, by interpolating the information indicating the learned and stored function and using it as the target value, the stored function (operation) can be reproduced at a low speed.

このように、記憶されている機能(動作)を高速で再現する場合、行為の抽出時には、低速且つ正確な動作を行えばよく、再現時には、高速且つ正確な動作とすることができる。
また、記憶されている機能(動作)を低速で再現する場合、通常の速度で行われている動作を緩やかに再現できる。
In this way, when reproducing the stored function (operation) at high speed, it is sufficient to perform a low-speed and accurate operation at the time of extracting the action, and it is possible to perform a high-speed and accurate operation at the time of reproduction.
Further, when the stored function (operation) is reproduced at a low speed, the operation performed at a normal speed can be reproduced slowly.

[状態判定装置の構成]
次に、状態判定装置1の構成について、図7を参照して説明をする。図7は、状態判定装置1の基本的構成を示す模式図である。
[Configuration of status determination device]
Next, the configuration of the state determination device 1 will be described with reference to FIG. 7. FIG. 7 is a schematic diagram showing the basic configuration of the state determination device 1.

図7に示すように、状態判定装置1は、制御ユニット10と、マスタ側ユニット50と、操作機構55と、スレーブ側ユニット60と、把持機構65と、を含む。また、マスタ側ユニット50は、マスタ側ドライバ51と、マスタ側アクチュエータ52と、マスタ側位置センサ53と、を含む。さらに、マスタ側ユニット50は、マスタ側アクチュエータ52により、操作機構55を動作させる。同様に、スレーブ側ユニット60は、スレーブ側ドライバ61と、スレーブ側アクチュエータ62と、スレーブ側位置センサ63と、を含む。さらに、スレーブ側ユニット60は、スレーブ側アクチュエータ62により、把持機構65を動作させる。
なお、以下の説明において、マスタ側(ここでは、操作機構側)とスレーブ側(ここでは、把持機構側)を区別することなく説明する場合には、名称や符号の一部を省略して、単に「ユニット」、「ドライバ」、「アクチュエータ」、「位置センサ」と称する。
As shown in FIG. 7, the state determination device 1 includes a control unit 10, a master side unit 50, an operation mechanism 55, a slave side unit 60, and a gripping mechanism 65. Further, the master side unit 50 includes a master side driver 51, a master side actuator 52, and a master side position sensor 53. Further, the master side unit 50 operates the operation mechanism 55 by the master side actuator 52. Similarly, the slave-side unit 60 includes a slave-side driver 61, a slave-side actuator 62, and a slave-side position sensor 63. Further, the slave side unit 60 operates the gripping mechanism 65 by the slave side actuator 62.
In the following description, when the master side (here, the operation mechanism side) and the slave side (here, the gripping mechanism side) are described without distinction, some of the names and symbols are omitted. They are simply referred to as "units", "drivers", "actuators", and "position sensors".

状態判定装置1は、図1を参照して上述したように制御ユニット10、マスタ側ユニット50、及びスレーブ側ユニット60が協働することにより、マスタ装置及びスレーブ装置として動作するものであり、マスタ装置及びスレーブ装置の一方の装置として動作する場合、他方の装置として動作するユニット(すなわち、マスタ側ユニット50又はスレーブ側ユニット60)のアクチュエータ(すなわち、マスタ側アクチュエータ52又はスレーブ側アクチュエータ62)に設置された位置センサ(すなわち、マスタ側位置センサ53又はスレーブ側位置センサ63)の検出結果を入力として、機能に応じた動作を行う。
状態判定装置1に実装される機能は、上述したように、制御ユニット10にて実現される機能別力・速度割当変換ブロックFTによって定義される座標変換を切り替えることで、種々変更することができる。
The state determination device 1 operates as a master device and a slave device by the cooperation of the control unit 10, the master side unit 50, and the slave side unit 60 as described above with reference to FIG. 1. When operating as one device of the device and the slave device, it is installed in the actuator (that is, the master side actuator 52 or the slave side actuator 62) of the unit (that is, the master side unit 50 or the slave side unit 60) that operates as the other device. The detection result of the position sensor (that is, the master side position sensor 53 or the slave side position sensor 63) is used as an input to perform an operation according to the function.
As described above, the functions implemented in the state determination device 1 can be variously changed by switching the coordinate conversion defined by the function-specific force / velocity allocation conversion block FT realized by the control unit 10. ..

制御ユニット10は、状態判定装置1全体を制御するものであり、CPU(Central Processing Unit)等のプロセッサと、メモリあるいはハードディスク等の記憶装置を含んだ情報処理装置によって構成される。
制御ユニット10は、図2や図3における機能別力・速度割当変換ブロックFTと、理想力源ブロックFCと、理想速度(位置)源ブロックPCと、逆変換ブロックIFTとの機能を備えている。そして、制御ユニット10では、これらの機能により、マスタ装置及びスレーブ装置の一方の装置として動作するための制御を行う。
The control unit 10 controls the entire state determination device 1, and is composed of a processor such as a CPU (Central Processing Unit) and an information processing device including a storage device such as a memory or a hard disk.
The control unit 10 has functions of a force / speed allocation conversion block FT for each function in FIGS. 2 and 3, an ideal power source block FC, an ideal speed (position) source block PC, and an inverse conversion block IFT. .. Then, the control unit 10 controls to operate as one of the master device and the slave device by these functions.

そのために、制御ユニット10は、状態判定装置1に備えられる機能毎の基準となる値(以下、「基準値」と称する。)を取得する。この基準値は、例えば、マスタ装置及びスレーブ装置の一方の装置として動作する場合、他方の装置として動作するユニットのアクチュエータに設置された位置センサから出力される時系列の検出値である。このように他方の装置として動作するユニットから時系列の検出値をリアルタイムで制御ユニット10に基準値として取得する場合、制御ユニット10は、通信インターフェース(通信I/F)によって構成することができる。また、上述した(動作の抽出機能)を実現するべく、他方の装置として動作するユニットの時系列の検出値を記憶しておき、基準値として順次読み出して制御ユニット10が取得する場合、制御ユニット10は、メモリあるいはハードディスク等の記憶装置によって構成することができる。 Therefore, the control unit 10 acquires a reference value (hereinafter, referred to as “reference value”) for each function provided in the state determination device 1. This reference value is, for example, a time-series detection value output from a position sensor installed in an actuator of a unit that operates as one of the master device and the slave device. When the time-series detection value is acquired from the unit operating as the other device to the control unit 10 as a reference value in real time, the control unit 10 can be configured by a communication interface (communication I / F). Further, in order to realize the above-mentioned (operation extraction function), when the time-series detection value of the unit operating as the other device is stored and sequentially read as a reference value and acquired by the control unit 10, the control unit is used. 10 can be configured by a storage device such as a memory or a hard disk.

すなわち、制御ユニット10には、まず、他方の装置として動作するユニットの位置センサによって検出された時系列の検出値が基準値として入力される。この時系列の検出値は、他方の装置として動作するユニットの動作を表すものであり、制御ユニット10は、入力された検出値(位置)から導出された速度(位置)及び力の情報に対して、機能に応じて設定されている座標変換を適用する。 That is, first, the time-series detection value detected by the position sensor of the unit operating as the other device is input to the control unit 10 as a reference value. The detected value in this time series represents the operation of the unit operating as the other device, and the control unit 10 refers to the speed (position) and force information derived from the input detected value (position). Then, apply the coordinate transformation set according to the function.

そして、制御ユニット10は、座標変換によって得られた速度(位置)の状態値を導出するための速度(位置)に対し、速度(位置)の領域における演算を行う。同様に、制御ユニット10は、座標変換によって得られた力の状態値を導出するための力に対し、力の領域における演算を行う。さらに、制御ユニット10は、算出した速度(位置)の領域における演算結果及び力の領域における演算結果に対して、加速度等への次元統一の処理を施し、また、機能に応じて設定されている座標変換の逆変換を適用する。これにより、制御ユニット10は、算出した速度(位置)の領域における演算結果及び力の領域における演算結果がアクチュエータへの入力の領域の値に変換する。 Then, the control unit 10 performs an operation in the region of the velocity (position) with respect to the velocity (position) for deriving the state value of the velocity (position) obtained by the coordinate conversion. Similarly, the control unit 10 performs an operation in the force region with respect to the force for deriving the state value of the force obtained by the coordinate transformation. Further, the control unit 10 performs dimensional unification processing such as acceleration on the calculation result in the calculated velocity (position) region and the calculation result in the force region, and is set according to the function. Apply the inverse transformation of the coordinate transformation. As a result, the control unit 10 converts the calculation result in the calculated velocity (position) region and the calculation result in the force region into a value in the region of input to the actuator.

また、制御ユニット10では、さらに、検査対象物4の破損に関する検査を補助するための処理を行うための機能ブロックが機能する。この機能ブロックについては、図8を参照して後述する。 Further, in the control unit 10, a functional block for performing a process for assisting the inspection regarding the damage of the inspection object 4 functions. This functional block will be described later with reference to FIG.

ドライバは、制御ユニット10によって逆変換されたアクチュエータへの入力の領域の値をアクチュエータに対する具体的な制御指令値(電圧値又は電流値等)に変換し、その制御指令値をアクチュエータに出力する。
アクチュエータは、ドライバから入力された制御指令値に従って駆動され、制御対象装置の位置を制御する。
位置センサは、アクチュエータによって制御される制御対象装置の位置を検出し、検出値を制御ユニット10に出力する。
The driver converts the value in the region of the input to the actuator, which is inversely converted by the control unit 10, into a specific control command value (voltage value, current value, etc.) for the actuator, and outputs the control command value to the actuator.
The actuator is driven according to the control command value input from the driver, and controls the position of the controlled device.
The position sensor detects the position of the controlled target device controlled by the actuator and outputs the detected value to the control unit 10.

このような構成により、状態判定装置1は、位置センサによって検出されたアクチュエータの位置から得られる速度(位置)及び力を、機能に応じた座標変換によって速度(位置)の領域及び力の領域の状態値に変換する。これにより、機能に応じて速度(位置)及び力それぞれに制御エネルギーが分配される。そして、それぞれの状態値が逆変換されて制御指令値とされ、この制御指令値に従って、ドライバによりアクチュエータが駆動される。 With such a configuration, the state determination device 1 transfers the velocity (position) and force obtained from the position of the actuator detected by the position sensor into the velocity (position) region and the force region by coordinate conversion according to the function. Convert to a state value. As a result, control energy is distributed to each of the velocity (position) and the force according to the function. Then, each state value is inversely converted into a control command value, and the actuator is driven by the driver according to this control command value.

したがって、状態判定装置1は、マスタ装置及びスレーブ装置の一方のアクチュエータの位置を検出することで、目的とする機能を実現するために必要な速度(位置)及び力の状態値を算出することができ、これらの状態値に基づいてマスタ装置及びスレーブ装置の他方のアクチュエータを駆動することで、マスタ装置及びスレーブ装置の位置及び力を目的とする状態に制御することができる。 Therefore, the state determination device 1 can calculate the state values of the speed (position) and the force required to realize the desired function by detecting the positions of one of the actuators of the master device and the slave device. By driving the other actuator of the master device and the slave device based on these state values, the position and force of the master device and the slave device can be controlled to the desired state.

また、状態判定装置1は、制御ユニット10における機能に応じた座標変換を切り替えることで、異なる機能を実現することが可能となる。例えば、状態判定装置1に備えられた記憶装置に、複数の機能に対応して、各種機能に応じた座標変換を記憶しておき、目的に応じて、いずれかの機能に応じた座標変換を選択することで、状態判定装置1において種々の機能を実現させることが可能となる。 Further, the state determination device 1 can realize different functions by switching the coordinate conversion according to the function in the control unit 10. For example, the storage device provided in the state determination device 1 stores coordinate conversions corresponding to various functions corresponding to a plurality of functions, and performs coordinate conversions according to one of the functions according to the purpose. By selecting the device, it is possible to realize various functions in the state determination device 1.

例えば、(力・触覚伝達機能)として上述した機能を実現する場合、状態判定装置1は、制御ユニット10に対して入力される基準値を、他方の装置として動作するユニットからリアルタイムに入力される位置及び力の取得値とすることができる。この場合、他方の装置として動作するユニットの動作とリアルタイムに連動して、一方の装置を制御することができる。すなわち、この場合、制御ユニット10においては、式(2)として表される座標変換が定義されるため、マスタ装置として動作するマスタ側アクチュエータ52の位置とスレーブ装置として動作するスレーブ側アクチュエータ62の位置との差がゼロとなる状態に制御される。 For example, when realizing the above-mentioned function as (force / tactile transmission function), the state determination device 1 inputs the reference value input to the control unit 10 in real time from the unit operating as the other device. It can be the acquired value of position and force. In this case, one device can be controlled in real time in conjunction with the operation of the unit operating as the other device. That is, in this case, since the coordinate transformation represented by the equation (2) is defined in the control unit 10, the position of the master side actuator 52 operating as the master device and the position of the slave side actuator 62 operating as the slave device. It is controlled so that the difference between the and is zero.

また、(力・触覚伝達機能)として上述した機能を実現する場合、マスタ装置として動作するマスタ側アクチュエータ52に操作者が加える操作における力触覚をスレーブ装置に伝達すると共に、スレーブ装置として動作するスレーブ側アクチュエータ62に作用する物体(例えば、検査対象物4)からの反力をマスタ装置として動作するマスタ側アクチュエータ52にフィードバックする。これにより、マスタ装置に対して行われた操作がスレーブ装置で正確に再現されると共に、スレーブ装置に入力された物体からの反力をマスタ装置に正確に伝達することができる。 Further, when the above-mentioned function is realized as (force / tactile transmission function), the force / tactile sensation in the operation applied by the operator to the master side actuator 52 operating as the master device is transmitted to the slave device, and the slave operates as the slave device. The reaction force from the object (for example, the object to be inspected 4) acting on the side actuator 62 is fed back to the master side actuator 52 operating as the master device. As a result, the operation performed on the master device can be accurately reproduced by the slave device, and the reaction force from the object input to the slave device can be accurately transmitted to the master device.

他にも、例えば、(動作の抽出機能)として上述した機能を実現する場合、状態判定装置1は、制御ユニット10に対して入力される基準値を、予め取得して記憶された他方の装置として動作するユニットの時系列の位置及び力の取得値とすることができる。この場合、予め用意された他方の装置として動作するユニットの動作を基準として、状態判定装置1の機能を実現することができる。すなわち、他方の装置として動作するユニットが存在しない状態で、状態判定装置1において、目的とする機能を再現することができる。 In addition, for example, when the above-mentioned function is realized as (operation extraction function), the state determination device 1 is the other device in which the reference value input to the control unit 10 is acquired and stored in advance. It can be the acquisition value of the time-series position and force of the unit that operates as. In this case, the function of the state determination device 1 can be realized based on the operation of the unit that operates as the other device prepared in advance. That is, the target function can be reproduced in the state determination device 1 in a state where there is no unit that operates as the other device.

他にも、例えば、(スケーリング機能)として上述した機能を実現する場合、状態判定装置1は、スケーリング機能によって、例えば、一方の装置として動作するユニットの動きの大きさを縮小して他方の装置として動作するユニットで再現したり、一方の装置として動作するユニットの動きの強さ(力)を強めて他方の装置として動作するユニットで再現したり、あるいは、一方の装置として動作するユニットの動きの速度を低下させて他方の装置として動作するユニットで再現したりすることができる。 In addition, for example, when realizing the above-mentioned function as (scaling function), the state determination device 1 reduces the magnitude of the movement of the unit operating as, for example, one device by the scaling function, and the other device. It can be reproduced with a unit that operates as one device, it can be reproduced with a unit that operates as the other device by increasing the strength (force) of the movement of the unit that operates as one device, or it can be reproduced with a unit that operates as one device. It can be reproduced with a unit that operates as the other device by reducing the speed of.

他にも、例えば、(動作の抽出機能)として上述した機能と、(スケーリング機能)として上述した機能の双方を実現した場合、状態判定装置1は、動作の抽出機能により記憶装置に記憶された位置又は力の少なくとも一方の情報にスケーリング機能を用いることで、例えば、記憶された動きの大きさを縮小して他方の装置として動作するユニットで再現したり、記憶された動きの強さ(力)を強めて他方の装置として動作するユニットで再現したりすることができる。 In addition, for example, when both the above-mentioned function as (motion extraction function) and the above-mentioned function as (scaling function) are realized, the state determination device 1 is stored in the storage device by the motion extraction function. By using the scaling function for at least one of the information of position or force, for example, the magnitude of the stored movement can be reduced and reproduced by a unit operating as the other device, or the strength (force) of the stored movement can be reproduced. ) Can be strengthened and reproduced with a unit that operates as the other device.

上述のようにして、制御ユニット10は、マスタ側ユニット50のマスタ装置としての動作や、スレーブ側ユニット60のスレーブ装置としての動作を制御することにより把持装置としての機能を実現すると共に、さらに、ウェアラブル端末2やサーバ装置3と協働して「状態判定処理」を行なう。
ここで、状態判定処理は、検査対象物4の破損に関する検査を補助するために、検査対象物4が破損しているか否かを判定する一連の処理である。
As described above, the control unit 10 realizes the function as a gripping device by controlling the operation of the master side unit 50 as a master device and the operation of the slave side unit 60 as a slave device, and further. The "state determination process" is performed in cooperation with the wearable terminal 2 and the server device 3.
Here, the state determination process is a series of processes for determining whether or not the inspection object 4 is damaged in order to assist the inspection regarding the damage of the inspection object 4.

図8は、この状態判定処理を実現するための、制御ユニット10のハードウェア及び機能ブロックの一例を示すブロック図である。図8に示すように、制御ユニット10は、プロセッサ11と、ROM12と、RAM13と、通信部14と、記憶部15と、入力部16と、出力部17と、ドライブ18と、を含む。また、図8では図示を省略しているが、図7において図示したように制御ユニット10には、ドライバと、位置センサとが接続される。これら各部は、信号線により接続されており、相互に信号を送受する。 FIG. 8 is a block diagram showing an example of hardware and functional blocks of the control unit 10 for realizing this state determination process. As shown in FIG. 8, the control unit 10 includes a processor 11, a ROM 12, a RAM 13, a communication unit 14, a storage unit 15, an input unit 16, an output unit 17, and a drive 18. Further, although not shown in FIG. 8, the driver and the position sensor are connected to the control unit 10 as shown in FIG. 7. Each of these parts is connected by a signal line and sends and receives signals to and from each other.

プロセッサ11は、ROM12に記録されているプログラム、又は、記憶部15からRAM13にロードされたプログラムに従って各種の処理を実行する。RAM13には、プロセッサ11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
なお、図中において、プロセッサ11は、単一のプロセッサとして図示されているが、これは一例に過ぎない。例えば、プロセッサ11を、複数のプロセッサにより実現するようにしてもよい。この場合、例えば、上述したマスタ装置やスレーブ装置としての動作を制御する機能(図中における「動作制御部111」や「パラメータ取得部112」に相当)と、これと協働して状態判定処理を行う機能(図中における「判定基準設定部113」や「判定部114」に相当)とを、それぞれ別のプロセッサにより実現してもよい。さらに、この場合、プロセッサは、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の処理回路を含むものであってもよい。また、この場合、ROM12やRAM13等は、プロセッサ毎にそれぞれ設けられていてもよい。
The processor 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 15 into the RAM 13. Data and the like necessary for the processor 11 to execute various processes are also appropriately stored in the RAM 13.
In the figure, the processor 11 is shown as a single processor, but this is only an example. For example, the processor 11 may be realized by a plurality of processors. In this case, for example, the function for controlling the operation as the master device or the slave device described above (corresponding to the "operation control unit 111" or the "parameter acquisition unit 112" in the figure) and the state determination process in cooperation with this. (Corresponding to "determination standard setting unit 113" and "determination unit 114" in the figure) may be realized by different processors. Further, in this case, the processor is composed of various processing units such as a single processor, a multiprocessor, and a multicore processor, and these various processing units and an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). ) Etc. may be included. Further, in this case, the ROM 12, the RAM 13, and the like may be provided for each processor.

通信部14は、プロセッサ11が、他の装置(例えば、ウェアラブル端末2やサーバ装置3等)との間で通信を行うための通信制御を行う。記憶部15は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。 The communication unit 14 controls communication for the processor 11 to communicate with another device (for example, a wearable terminal 2 or a server device 3). The storage unit 15 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and stores various data.

入力部16は、各種ボタン及びタッチパネル、又はマウス及びキーボード等の外部入力装置で構成され、ユーザの指示操作に応じて各種情報を入力する。出力部17は、ディスプレイやスピーカ等で構成され、画像や、音声や警告音等を出力する。
ドライブ18には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア(図示を省略する。)が適宜装着される。ドライブ18よってリムーバブルメディアから読み出されたプログラムは、必要に応じて記憶部15にインストールされる。
The input unit 16 is composed of various buttons and a touch panel, or an external input device such as a mouse and a keyboard, and inputs various information according to a user's instruction operation. The output unit 17 is composed of a display, a speaker, or the like, and outputs an image, a voice, a warning sound, or the like.
A removable medium (not shown) made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 18. The program read from the removable media by the drive 18 is installed in the storage unit 15 as needed.

このようなハードウェア構成において、状態判定処理を実現する場合、図8に示すようにプロセッサ11にて、動作制御部111と、パラメータ取得部112と、判定基準設定部113と、判定部114と、が機能する。
また、このようなハードウェア構成において、状態判定処理を実現する場合、図8に示すように記憶部15の一領域には、パラメータ記憶部151と、判定基準記憶部152と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
When the state determination process is realized in such a hardware configuration, as shown in FIG. 8, the processor 11 includes an operation control unit 111, a parameter acquisition unit 112, a determination standard setting unit 113, and a determination unit 114. , Works.
Further, in the case of realizing the state determination process in such a hardware configuration, as shown in FIG. 8, a parameter storage unit 151 and a determination reference storage unit 152 are set in one area of the storage unit 15. ..
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.

動作制御部111は、上述のようにして、マスタ装置として動作するマスタ側ユニット50や、スレーブ装置として動作するスレーブ側ユニット60に対して、力・触覚伝達機能を適用した動作の制御を行う。すなわち、動作制御部111は、図2や図3における機能別力・速度割当変換ブロックFTと、理想力源ブロックFCと、理想速度(位置)源ブロックPCと、逆変換ブロックIFTとの機能を実現する。また、この場合に動作制御部111は、図3を参照して上述したようにして、機能別力・速度割当変換ブロックFTにおいて力・触覚伝達機能を定義して、力・触覚伝達機能を適用した動作の制御を行う。さらに、この場合に動作制御部111は、機能に応じた座標変換を切り替えることで、異なる機能を実現する。 As described above, the motion control unit 111 controls the motion of the master unit 50 operating as the master device and the slave unit 60 operating as the slave device by applying the force / tactile transmission function. That is, the motion control unit 111 functions as a function-specific force / speed allocation conversion block FT, an ideal force source block FC, an ideal speed (position) source block PC, and an inverse conversion block IFT in FIGS. 2 and 3. Realize. Further, in this case, the motion control unit 111 defines the force / tactile transmission function in the function-specific force / speed allocation conversion block FT as described above with reference to FIG. 3, and applies the force / tactile transmission function. Control the operation. Further, in this case, the motion control unit 111 realizes a different function by switching the coordinate conversion according to the function.

パラメータ取得部112は、動作制御部111による力・触覚伝達機能を適用した動作の制御で用いた制御パラメータ(以下、「力触覚に関する制御パラメータ」と称する。)を取得する。以下では、説明のための一例として、パラメータ取得部112は、位置センサによって検出されたアクチュエータの位置から得られる位置を示す値及び力を示す値を、力触覚に関する制御パラメータとして取得することを想定する。 The parameter acquisition unit 112 acquires control parameters (hereinafter, referred to as “control parameters related to force / tactile sensation”) used in the operation control to which the force / tactile transmission function applied by the motion control unit 111 is applied. In the following, as an example for explanation, it is assumed that the parameter acquisition unit 112 acquires a value indicating a position and a value indicating a force obtained from the position of the actuator detected by the position sensor as control parameters related to force and tactile sensation. do.

ここで、上述したように、アクチュエータにおける力は質量と加速度との積として算出でき、アクチュエータにおける速度(位置)は加速度の積分によって算出することができる。そこで、例えば、パラメータ取得部112は、図5(a)を参照して上述した(動作の抽出機能)における各アクチュエータの時系列の位置や、図5(b)を参照して上述した(動作の抽出機能)における時系列の式(4)の座標変換結果に対応する情報に基づいて、リアルタイムに積分等の演算を行うことで位置を示す値及び力を示す値を算出して、これら力触覚に関する制御パラメータを取得する。 Here, as described above, the force in the actuator can be calculated as the product of the mass and the acceleration, and the velocity (position) in the actuator can be calculated by integrating the acceleration. Therefore, for example, the parameter acquisition unit 112 refers to the time-series position of each actuator in the above-mentioned (motion extraction function) with reference to FIG. 5 (a), and the above-mentioned (operation) with reference to FIG. 5 (b). Based on the information corresponding to the coordinate conversion result of the time-series equation (4) in the extraction function of), the value indicating the position and the value indicating the force are calculated by performing operations such as integration in real time, and these forces are calculated. Acquire control parameters related to tactile sensation.

また、パラメータ取得部112は、取得した力触覚に関する制御パラメータをパラメータ記憶部151に記憶させる。すなわち、パラメータ記憶部151は、力触覚に関する制御パラメータを記憶する記憶部として機能する。 Further, the parameter acquisition unit 112 stores the acquired control parameters related to the force and tactile sensation in the parameter storage unit 151. That is, the parameter storage unit 151 functions as a storage unit for storing control parameters related to force and tactile sensation.

判定基準設定部113は、後述の判定部114が、検査対象物4が破損しているか否かを判定するための基準を設定する。以下では、説明のための一例として、所定の閾値に基づいて判定を行うことを想定するので、判定基準設定部113は、この所定の閾値を設定し、設定した所定の閾値を判定基準として判定基準記憶部152に記憶させる。すなわち、判定基準記憶部152は、判定基準である所定の閾値を記憶する記憶部として機能する。 The determination standard setting unit 113 sets a standard for the determination unit 114, which will be described later, to determine whether or not the inspection object 4 is damaged. In the following, as an example for explanation, it is assumed that the determination is performed based on a predetermined threshold value. Therefore, the determination standard setting unit 113 sets the predetermined threshold value and determines using the set predetermined threshold value as the determination standard. It is stored in the reference storage unit 152. That is, the determination standard storage unit 152 functions as a storage unit that stores a predetermined threshold value that is a determination standard.

ここで、本実施形態では、より適切に判定を行うために、今回判定対象とする検査対象物4の種類等に応じて、所定の閾値を適宜異ならせる。この今回判定対象とする検査対象物4の種類等に応じた所定の閾値の具体的な数値は、ウェアラブル端末2から判定基準設定部113に対して送信される。 Here, in the present embodiment, in order to make a more appropriate determination, the predetermined threshold value is appropriately different depending on the type of the inspection target 4 to be determined this time and the like. The specific numerical value of the predetermined threshold value according to the type and the like of the inspection object 4 to be determined this time is transmitted from the wearable terminal 2 to the determination standard setting unit 113.

判定部114は、検査対象物4の破損に関する検査を補助するために、検査対象物4が破損しているか否かを判定する。この判定は、上述したように、判定基準設定部113が設定して、判定基準記憶部152に記憶させた所定の閾値に基づいて行われる。判定部114による具体的な判定方法については、図11、図12、図13及び図16のフローチャートを参照して後述する。
また、判定部114は、判定結果をウェアラブル端末2に対して送信する。
The determination unit 114 determines whether or not the inspection object 4 is damaged in order to assist the inspection regarding the damage of the inspection object 4. As described above, this determination is performed based on a predetermined threshold value set by the determination standard setting unit 113 and stored in the determination standard storage unit 152. The specific determination method by the determination unit 114 will be described later with reference to the flowcharts of FIGS. 11, 12, 13, and 16.
Further, the determination unit 114 transmits the determination result to the wearable terminal 2.

[ウェアラブル端末の構成]
次に、ウェアラブル端末2の構成について、図9を参照して説明をする。図9は、ウェアラブル端末2のハードウェア及び機能ブロックの一例を示すブロック図である。図9に示すように、ウェアラブル端末2は、プロセッサ21と、ROM22と、RAM23と、通信部24と、記憶部25と、入力部26と、出力部27と、カメラ28と、センサ29と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これらの内、カメラ28及びセンサ29以外の各部のハードウェアとしての機能は、図8を参照して上述した状態判定装置1が備える同名の各部と同様である。そのため、これら各部のハードウェアとしての機能については、重複する再度の説明を省略する。一方で、カメラ28及びセンサ29について、以下説明をする。
[Wearable device configuration]
Next, the configuration of the wearable terminal 2 will be described with reference to FIG. FIG. 9 is a block diagram showing an example of hardware and functional blocks of the wearable terminal 2. As shown in FIG. 9, the wearable terminal 2 includes a processor 21, a ROM 22, a RAM 23, a communication unit 24, a storage unit 25, an input unit 26, an output unit 27, a camera 28, a sensor 29, and the like. It is equipped with. Each of these parts is connected by a signal line and sends and receives signals to and from each other. Of these, the functions of the parts other than the camera 28 and the sensor 29 as hardware are the same as the parts of the same name provided in the state determination device 1 described above with reference to FIG. Therefore, the duplicated description of the functions of each of these parts as hardware will be omitted. On the other hand, the camera 28 and the sensor 29 will be described below.

カメラ28は、光学レンズやイメージセンサといった撮影用の素子や、これらを制御するための周辺回路を備えている。カメラ28により被写体を撮影することにより生成された画像データや、あるいは、ヘッドトラッキング用等の周辺環境を示す画像データは、適宜プロセッサ21に対して出力される。 The camera 28 includes elements for photographing such as an optical lens and an image sensor, and peripheral circuits for controlling them. The image data generated by shooting the subject with the camera 28 or the image data indicating the surrounding environment such as for head tracking is output to the processor 21 as appropriate.

センサ29は、ウェアラブル端末2における、加速度、ジャイロ(すなわち、角度や角速度等)、及び方位を計測する。センサ29における計測結果についても、適宜プロセッサ21に対して出力される。 The sensor 29 measures the acceleration, the gyro (that is, the angle, the angular velocity, etc.), and the direction in the wearable terminal 2. The measurement result of the sensor 29 is also output to the processor 21 as appropriate.

プロセッサ21は、これらカメラ28やセンサ29の出力に基づいて、ユーザの頭の位置や向き等を特定し、この特定した頭の位置や向きに基づいて、出力部27に含まれる透過型のディスプレイの、適切な表示位置にユーザUに対する通知(ここでは、表示)を行う。これにより、上述したようにして、透過型のディスプレイを介してユーザUが視認できる現実の景色と、透過型ディスプレイに表示される仮想現実(例えば、仮想的に生成された画像やテキスト等を含む)とを重畳して、ユーザUに対して通知をすることができる。すなわち、本実施形態では、力触覚を伝達する技術と、複合現実の技術を組み合わせて、ユーザUの検査等における作業や判断を補助(すなわち、サポート)することができる。 The processor 21 identifies the position and orientation of the user's head based on the outputs of the cameras 28 and the sensor 29, and the transmissive display included in the output unit 27 based on the identified position and orientation of the head. Notification to the user U (here, display) is performed at an appropriate display position. Thereby, as described above, the actual scenery that can be visually recognized by the user U through the transmissive display and the virtual reality displayed on the transmissive display (for example, a virtually generated image or text) are included. ) Can be superimposed to notify the user U. That is, in the present embodiment, the technique of transmitting force and tactile sensation and the technique of mixed reality can be combined to assist (that is, support) the work and judgment in the inspection and the like of the user U.

なお、これも上述したように、この通知は、出力部27が備えるスピーカからの音(音声や警告音等)の出力や、警告灯の点滅等により実現されてもよい。
また、プロセッサ21は、このような複合現実の技術に関する表示を行うために、CPUのみならず、GPU(Graphics Processing Unit)等の画像処理用のプロセッサを含んで実現されてもよい。
As described above, this notification may be realized by outputting a sound (voice, warning sound, etc.) from the speaker included in the output unit 27, blinking the warning light, or the like.
Further, the processor 21 may be realized by including not only a CPU but also a processor for image processing such as a GPU (Graphics Processing Unit) in order to display such a mixed reality technique.

このようなハードウェア構成において、状態判定処理を実現する場合、図9に示すようにプロセッサ21にて、指示解釈部211と、対象物撮影部212と、対象物情報管理部213と、通知部214と、作業情報管理部215と、が機能する。
また、この場合、図9に示すように記憶部25の一領域には、対象物情報記憶部251と、作業情報記憶部252と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
In such a hardware configuration, when the state determination process is realized, the instruction interpretation unit 211, the object photographing unit 212, the object information management unit 213, and the notification unit are used in the processor 21 as shown in FIG. 214 and the work information management unit 215 function.
Further, in this case, as shown in FIG. 9, an object information storage unit 251 and a work information storage unit 252 are set in one area of the storage unit 25.
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.

指示解釈部211は、ユーザUからの指示操作の内容を解釈する。ここで、ユーザUからの指示操作は、入力部26が備えるボタン等に対する押下操作等により受け付けられてもよいが、指示解釈部211が解釈のための処理を行うことにより、他の方法で受け付けられてもよい。そのようにする理由であるが、本実施形態では、ユーザUがウェアラブル端末2を用いながら、同時に状態判定装置1を手で携帯して、把持のための操作を行うことを想定しており、この場合、ボタンを押下する操作では、この把持操作の妨げになる可能性があるからである。そこで、ウェアラブル端末2では、例えば、入力部26が備えるスピーカが、ユーザUからの音声からなる指示(いわゆる、ボイスコマンド)で指示操作を受け付けるようにする。そして、指示解釈部211が、その音声からなる指示の内容を解釈するようにする。あるいは、カメラ28が、ユーザUの手の動き等のジェスチャーからなる指示操作を受け付けるようにする。そして、指示解釈部211が、そのジェスチャーからなる指示操作を解釈するようにする。
このように、音声からなる指示やジェスチャーからなる指示操作を受け付け可能とすることにより、ウェアラブル端末2に対する指示のための操作が、状態判定装置1に対する把持のための操作の妨げになることを防止し、ユーザUの利便性をより向上させることができる。
The instruction interpretation unit 211 interprets the content of the instruction operation from the user U. Here, the instruction operation from the user U may be accepted by a pressing operation or the like for a button or the like provided in the input unit 26, but is accepted by another method by the instruction interpretation unit 211 performing a process for interpretation. May be. The reason for doing so is that, in the present embodiment, it is assumed that the user U uses the wearable terminal 2 and at the same time carries the state determination device 1 by hand to perform an operation for grasping. In this case, the operation of pressing the button may interfere with this gripping operation. Therefore, in the wearable terminal 2, for example, the speaker included in the input unit 26 receives an instruction operation by an instruction (so-called voice command) composed of voice from the user U. Then, the instruction interpretation unit 211 interprets the content of the instruction composed of the voice. Alternatively, the camera 28 is made to accept an instruction operation consisting of gestures such as the movement of the hand of the user U. Then, the instruction interpretation unit 211 interprets the instruction operation consisting of the gesture.
In this way, by making it possible to accept an instruction consisting of voice and an instruction operation consisting of gestures, it is possible to prevent the operation for instructing the wearable terminal 2 from interfering with the operation for grasping the state determination device 1. However, the convenience of the user U can be further improved.

対象物撮影部212は、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした画像データ(以下、「検査対象物画像データ」と称する。)を生成する。そして、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3に対して送信する。サーバ装置3は、この検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。 The object photographing unit 212 generates image data (hereinafter, referred to as “inspection object image data”) with the inspection object 4 as a subject by taking an image using the camera 28. Then, the object photographing unit 212 transmits the generated image data of the inspection object to the server device 3. The server device 3 identifies which type of inspection object 4 is the inspection object 4 which is the subject by performing image analysis of the inspection object image data.

対象物情報管理部213は、対象物情報を管理する。ここで、対象物情報とは、検査対象物4となり得る物品それぞれに関する情報である。例えば、検査対象物4となり得る物品の、製品名、外観(すなわち、包装容器)の画像データ、バーコード等の識別用の情報の画像データ、対応する所定の閾値の値、及び検査時に把持機構65において把持すべき位置の画像データ等が対象物情報に含まれる。なお、これは一例であり、他にも、検査対象物4となり得る物品の、製造業者、賞味期限、及び小売価格等の製品に関する一般的な情報が対象物情報に含まれていてもよい。 The object information management unit 213 manages the object information. Here, the object information is information about each of the articles that can be the inspection object 4. For example, the product name, the image data of the appearance (that is, the packaging container), the image data of the identification information such as the bar code, the corresponding predetermined threshold value, and the gripping mechanism at the time of inspection of the article that can be the inspection object 4. The object information includes image data and the like of the position to be grasped in 65. It should be noted that this is an example, and in addition, general information about the product such as the manufacturer, the expiration date, and the retail price of the article that can be the inspection object 4 may be included in the object information.

対象物情報管理部213は、サーバ装置3や、検査対象物4を製造する製造業者のサーバ装置(図示を省略する)と通信を行うことにより、対象物情報を取得する。また、対象物情報管理部213は、このような通信を周期的に繰り返すことにより、対象物情報が最新の内容となるように更新をする。
そして、対象物情報管理部213は、このようにして取得及び更新した対象物情報を対象物情報記憶部251に記憶させる。すなわち、対象物情報記憶部251は、対象物情報を記憶する記憶部として機能する。
The object information management unit 213 acquires the object information by communicating with the server device 3 and the server device (not shown) of the manufacturer that manufactures the inspection object 4. Further, the object information management unit 213 updates the object information so that it has the latest contents by periodically repeating such communication.
Then, the object information management unit 213 stores the object information acquired and updated in this way in the object information storage unit 251. That is, the object information storage unit 251 functions as a storage unit for storing the object information.

通知部214は、ユーザUに対して、検査対象物4の破損に関する検査を補助するための各種の情報や、ユーザインタフェース等を通知する。各種の情報とは、例えば、サーバ装置3による画像解析による検査対象物4の識別結果や、状態判定装置1による検査対象物4が破損しているか否かの判定結果や、判定結果に対応した作業指示等である。また、ユーザインタフェースとは、例えば、状態判定処理に関連するユーザインタフェースである。
通知部214による通知は、上述したように、出力部27が備える透過型のディスプレイへの表示や、出力部27が備えるスピーカからの音(音声や警告音等)の出力や、警告灯の点滅等により実現される。なお、通知部214による通知の具体例については、図15及び図16を参照して後述する。
The notification unit 214 notifies the user U of various information for assisting the inspection regarding the damage of the inspection object 4, the user interface, and the like. The various types of information correspond to, for example, the identification result of the inspection object 4 by the image analysis by the server device 3, the determination result of whether or not the inspection object 4 is damaged by the state determination device 1, and the determination result. Work instructions, etc. Further, the user interface is, for example, a user interface related to the state determination process.
As described above, the notification by the notification unit 214 is displayed on the transmissive display provided in the output unit 27, the output of the sound (voice, warning sound, etc.) from the speaker provided in the output unit 27, and the blinking of the warning light. It is realized by such as. A specific example of the notification by the notification unit 214 will be described later with reference to FIGS. 15 and 16.

作業情報管理部215は、作業情報を管理する。ここで、作業情報とは、検査対象物4に関連して行うべき作業の情報である。例えば、検査対象物4が破損しているか否かを検査するべき時間帯や、破損しているか否かの結果に応じた仕分け先の場所(例えば、仕分け先となる棚や格納容器の場所)や、このような検査を伴う仕分けやピッキングを行うべき時間帯等が作業情報に含まれる。また、実際に検査等の作業を行ったユーザUの識別情報や、実際に作業が行われた時間帯や、検査結果等の作業履歴が作業情報に含まれていてもよい。なお、これは一例であり、他にも、例えば、検査対象物4の、配送先の住所や、配送すべき時間帯や、配送すべき個数等の物流に関する情報が作業情報に含まれていてもよい。 The work information management unit 215 manages the work information. Here, the work information is information on the work to be performed in relation to the inspection object 4. For example, the time zone for inspecting whether the inspection object 4 is damaged or not, and the location of the sorting destination according to the result of whether or not it is damaged (for example, the location of the shelf or containment vessel to be the sorting destination). The work information includes the time zone for sorting and picking accompanied by such inspection. Further, the work information may include the identification information of the user U who actually performed the work such as inspection, the time zone when the work was actually performed, and the work history such as the inspection result. It should be noted that this is only an example, and in addition, for example, the work information includes information on the physical distribution of the inspection object 4, such as the delivery address, the time zone to be delivered, and the number of items to be delivered. May be good.

作業情報管理部215は、サーバ装置3や、検査対象物4を配送する物流業者のサーバ装置(図示を省略する)と通信を行うことにより、作業情報を取得する。また、作業情報管理部215は、このような通信を周期的に繰り返すことにより、作業情報が最新の内容となるように更新をする。
そして、作業情報管理部215は、このようにして取得及び更新した作業情報を作業情報記憶部252に記憶させる。すなわち、作業情報記憶部252は、作業情報を記憶する記憶部として機能する。
The work information management unit 215 acquires work information by communicating with the server device 3 and the server device (not shown) of the logistics company that delivers the inspection object 4. Further, the work information management unit 215 updates the work information so that it has the latest contents by periodically repeating such communication.
Then, the work information management unit 215 stores the work information acquired and updated in this way in the work information storage unit 252. That is, the work information storage unit 252 functions as a storage unit for storing work information.

[サーバ装置の構成]
次に、サーバ装置3の構成について、図10を参照して説明をする。図10は、サーバ装置3のハードウェア及び機能ブロックの一例を示すブロック図である。図10に示すように、サーバ装置3は、プロセッサ31と、ROM32と、RAM33と、通信部34と、記憶部35と、入力部36と、出力部37と、ドライブ38と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これら各部のハードウェアとしての機能は、図8を参照して上述した状態判定装置1が備える同名の各部や、図9を参照して上述したウェアラブル端末2が備える同名の各部と同様である。そのため、これら各部のハードウェアとしての機能については、重複する再度の説明を省略する。
[Server device configuration]
Next, the configuration of the server device 3 will be described with reference to FIG. FIG. 10 is a block diagram showing an example of hardware and functional blocks of the server device 3. As shown in FIG. 10, the server device 3 includes a processor 31, a ROM 32, a RAM 33, a communication unit 34, a storage unit 35, an input unit 36, an output unit 37, and a drive 38. .. Each of these parts is connected by a signal line and sends and receives signals to and from each other. The functions of these parts as hardware are the same as the parts having the same name provided in the state determination device 1 described above with reference to FIG. 8 and the parts having the same name provided with the wearable terminal 2 described above with reference to FIG. be. Therefore, the duplicated description of the functions of each of these parts as hardware will be omitted.

このようなハードウェア構成において、状態判定処理を実現する場合、図10に示すようにプロセッサ31にて、対象物情報管理部311と、識別部312と、作業情報管理部313と、が機能する。
また、この場合、図10に示すように記憶部35の一領域には、対象物情報管理部351と、作業情報記憶部352と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
In such a hardware configuration, when the state determination process is realized, the object information management unit 311, the identification unit 312, and the work information management unit 313 function in the processor 31 as shown in FIG. ..
Further, in this case, as shown in FIG. 10, an object information management unit 351 and a work information storage unit 352 are set in one area of the storage unit 35.
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.

対象物情報管理部311は、ウェアラブル端末2が備える対象物情報管理部213と同様に、対象物情報を管理する。ここで、対象物情報の詳細については、対象物情報管理部213の説明の際に上述しているので、ここでは再度の説明を省略する。また、対象物情報管理部311は、これも対象物情報管理部213と同様であるが、対象物情報管理部213や、検査対象物4の製造業者のサーバ装置(図示を省略する)と通信を行うことにより、対象物情報を取得したり更新したりする。
そして、対象物情報管理部311は、このようにして取得及び更新した対象物情報を対象物情報管理部351に記憶させる。すなわち、対象物情報管理部351は、対象物情報を記憶する記憶部として機能する。
The object information management unit 311 manages the object information in the same manner as the object information management unit 213 included in the wearable terminal 2. Here, since the details of the object information are described above in the explanation of the object information management unit 213, the description thereof will be omitted again here. Further, the object information management unit 311 is also the same as the object information management unit 213, but communicates with the object information management unit 213 and the server device (not shown) of the manufacturer of the inspection object 4. By doing, the object information is acquired and updated.
Then, the object information management unit 311 stores the object information acquired and updated in this way in the object information management unit 351. That is, the object information management unit 351 functions as a storage unit for storing the object information.

識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。ここで、検査対象物画像データは、上述したように、ウェアラブル端末2の対象物撮影部212が、カメラ28を用いた撮影を行うことにより生成した、検査対象物4を被写体とした画像データである。識別部312は、人工知能(AI:Artificial Intelligence)や所定のアルゴリズムを用いた画像解析により、この識別を実現する。 The identification unit 312 identifies which type of inspection object 4 is the inspection object 4 which is the subject by performing image analysis of the inspection object image data. Here, as described above, the inspection object image data is image data with the inspection object 4 as the subject, which is generated by the object photographing unit 212 of the wearable terminal 2 taking a picture using the camera 28. be. The identification unit 312 realizes this identification by image analysis using artificial intelligence (AI: Artificial Intelligence) or a predetermined algorithm.

例えば、識別部312は、検査対象物画像データと、対象物情報に含まれる、検査対象物4となり得る物品それぞれの外観(すなわち、包装容器)の画像データやバーコード等の識別用の情報の画像データとを、既存の手法を利用したパターンマッチングで比較することにより、この識別を実現する。 For example, the identification unit 312 contains image data of the inspection object, image data of the appearance (that is, packaging container) of each article that can be the inspection object 4 included in the object information, and information for identification such as a barcode. This identification is realized by comparing the image data with the pattern matching using the existing method.

あるいは、識別部312は、例えば、機械学習により学習モデルを構築することにより、この識別を実現する。この場合、例えば、識別部312は、何れかの検査対象物4となり得る物品を被写体とした画像データと、被写体となっている検査対象物4の種類を示すラベル(すなわち、正解を示すラベル)とを組にして教師データを生成する。なお、この場合に、何れの検査対象物4も被写体となっていない画像データと、不正解を示すラベルとを組にした教師データを、さらに生成してもよい。そして、識別部312は、この教師データを用いて、教師あり機械学習を行う。この場合、例えば、識別部312は、パーセプトロンを組み合わせて構成したニューラルネットワークにより、機械学習を行う。具体的には、教師データに含まれる画像データの特徴量をニューラルネットワークの入力層に対して入力データとして与え、ニューラルネットワークの出力層の出力がラベルと同じとなるように、各パーセプトロンについての重み付けを変更しながら学習を繰り返す。 Alternatively, the identification unit 312 realizes this identification, for example, by constructing a learning model by machine learning. In this case, for example, the identification unit 312 has image data of an article that can be any of the inspection objects 4 as a subject, and a label indicating the type of the inspection object 4 that is the subject (that is, a label indicating a correct answer). Generate teacher data in combination with. In this case, teacher data in which an image data in which none of the inspection objects 4 is a subject and a label indicating an incorrect answer may be further generated. Then, the identification unit 312 performs supervised machine learning using this teacher data. In this case, for example, the identification unit 312 performs machine learning by a neural network configured by combining perceptrons. Specifically, the feature amount of the image data included in the teacher data is given to the input layer of the neural network as input data, and weighting is performed for each perceptron so that the output of the output layer of the neural network is the same as the label. Repeat learning while changing.

そして、識別部312は、このようにして学習モデルを構築した後、検査対象物画像データの特徴量を、この学習モデルに入力し、その出力を識別結果とする。なお、機械学習の手法は必ずしも限定されず、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等の画像解析に好適な手法を用いたりしてもよい。 Then, after the learning model is constructed in this way, the identification unit 312 inputs the feature amount of the image data of the inspection object into the learning model, and uses the output as the identification result. The machine learning method is not always limited, and for example, a method suitable for image analysis such as a convolutional neural network (CNN) may be used.

識別部312は、このようにして人工知能や所定のアルゴリズムを用いた画像解析により、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別し、その識別結果をウェアラブル端末2に対して送信する。このように、本実施形態では、画像解析により検査対象物4を識別することができる。そのため、仮に、検査対象物4に、バーコードやICタグが添付されていないような場合であっても、多種多様な検査対象物4を識別することができる。すなわち、検査対象物4に対する変更や加工を必要とせず、現状の流通の仕組みのままで本実施形態を適用することができる。 The identification unit 312 identifies, by image analysis using artificial intelligence or a predetermined algorithm, which type of inspection object 4 the subject 4 is, and identifies the inspection object 4. The result is transmitted to the wearable terminal 2. As described above, in the present embodiment, the inspection target 4 can be identified by image analysis. Therefore, even if a barcode or an IC tag is not attached to the inspection object 4, a wide variety of inspection objects 4 can be identified. That is, the present embodiment can be applied with the current distribution mechanism without the need for modification or processing of the inspection object 4.

作業情報管理部313は、ウェアラブル端末2が備える作業情報管理部215と同様に、作業情報を管理する。ここで、作業情報の詳細については、作業情報管理部215の説明の際に上述しているので、ここでは再度の説明を省略する。また、作業情報管理部313は、これも作業情報管理部215と同様であるが、作業情報管理部215や、検査対象物4を配送する物流業者のサーバ装置(図示を省略する)と通信を行うことにより、作業情報を取得したり更新したりする。
そして、作業情報管理部313は、このようにして取得及び更新した作業情報を作業情報記憶部352に記憶させる。すなわち、作業情報記憶部352は、作業情報を記憶する記憶部として機能する。
The work information management unit 313 manages work information in the same manner as the work information management unit 215 included in the wearable terminal 2. Here, since the details of the work information are described above in the explanation of the work information management unit 215, the description thereof will be omitted again here. Further, the work information management unit 313 is also the same as the work information management unit 215, but communicates with the work information management unit 215 and the server device (not shown) of the logistics company that delivers the inspection object 4. By doing so, work information is acquired and updated.
Then, the work information management unit 313 stores the work information acquired and updated in this way in the work information storage unit 352. That is, the work information storage unit 352 functions as a storage unit for storing work information.

なお、対象物情報管理部213及び対象物情報管理部311が管理する対象物情報や、作業情報管理部215及び作業情報管理部313が管理する作業情報は、上述したようにウェアラブル端末2、サーバ装置3、及び各事業者のサーバ間で通信する以外の方法で更新等されてもよい。例えば、ユーザUによる入力操作に基づいて、対象物情報や作業情報が追加や修正されることにより更新等されてもよい。 The object information managed by the object information management unit 213 and the object information management unit 311 and the work information managed by the work information management unit 215 and the work information management unit 313 are the wearable terminal 2 and the server as described above. It may be updated by a method other than communication between the device 3 and the server of each business operator. For example, the object information and the work information may be updated by being added or modified based on the input operation by the user U.

[状態判定処理]
本実施形態における、状態判定装置1、ウェアラブル端末2、及びサーバ装置3の構成について詳細に説明した。次に、これら各装置を含む状態判定システムSが実行する状態判定処理に含まれる各処理の処理内容について、図11、図12、図13及び図16のフローチャートを参照して説明する。図11は、状態判定処理における前処理の流れを説明するフローチャートである。図12は、状態判定処理における把持開始処理の流れを説明するフローチャートである。図13は、状態判定処理における判定処理の流れを説明するフローチャートである。図16は、状態判定処理における把持終了処理の流れを説明するフローチャートである。なお、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理や、作業情報管理部215及び作業情報管理部313による作業情報の管理は、別途行われているものとする。
[Status judgment process]
The configurations of the state determination device 1, the wearable terminal 2, and the server device 3 in the present embodiment have been described in detail. Next, the processing contents of each processing included in the state determination processing executed by the state determination system S including each of these devices will be described with reference to the flowcharts of FIGS. 11, 12, 13, and 16. FIG. 11 is a flowchart illustrating a flow of preprocessing in the state determination process. FIG. 12 is a flowchart illustrating the flow of the gripping start process in the state determination process. FIG. 13 is a flowchart illustrating a flow of the determination process in the state determination process. FIG. 16 is a flowchart illustrating a flow of the gripping end process in the state determination process. As a premise of the explanation, the object information management unit 213 and the object information management unit 311 manage the object information, and the work information management unit 215 and the work information management unit 313 manage the work information separately. It is assumed that there is.

状態判定処理は、ユーザUからの、ウェアラブル端末2に対する状態判定処理の開始指示操作に伴い実行される。なお、本指示操作も含め、例えば、後述のステップS1やステップS6等における指示操作は、ユーザUによる、音声からなる指示やジェスチャーからなる指示操作に基づいて行われてもよい点については上述した通りである。 The state determination process is executed in accordance with the start instruction operation of the state determination process for the wearable terminal 2 from the user U. It should be noted that, for example, the instruction operation in step S1 and step S6, which will be described later, including this instruction operation may be performed based on the instruction operation consisting of voice instructions and gestures by the user U, as described above. It's a street.

まず、図11を参照すると、ステップS1において、対象物撮影部212は、ユーザUからの撮影指示操作に基づいて、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした検査対象物画像データを生成する。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3に対して送信する。
First, referring to FIG. 11, in step S1, the object shooting unit 212 takes a picture using the camera 28 based on the shooting instruction operation from the user U, so that the inspection target 4 is the subject of the inspection. Generate object image data.
In step S2, the object photographing unit 212 transmits the generated image data of the inspection object to the server device 3.

ステップS3において、識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。この場合に、識別部312は、識別結果のみならず、この識別結果に対応する検査対象物4の対象物情報を対象物情報管理部351から読み出し、この対象物情報もウェアラブル端末2に対して送信する。ただし、識別部312が識別結果のみを送信し、これを受信したウェアラブル端末2が対象物情報記憶部251から対象物情報を読み出すようにしてもよい。
In step S3, the identification unit 312 identifies which type of inspection object 4 the inspection object 4 as the subject is by analyzing the image data of the inspection object.
In step S4, the identification unit 312 transmits the identification result (that is, which type of inspection object 4 is) to the wearable terminal 2. In this case, the identification unit 312 reads not only the identification result but also the object information of the inspection object 4 corresponding to the identification result from the object information management unit 351 and this object information is also sent to the wearable terminal 2. Send. However, the identification unit 312 may transmit only the identification result, and the wearable terminal 2 that receives the identification result may read the object information from the object information storage unit 251.

ステップS5において、通知部214は、識別結果に対応する対象物情報をユーザUに対して通知する。例えば、対象物情報に含まれている、製品名や、外観(すなわち、包装容器)の画像データを表示等することにより通知する。 In step S5, the notification unit 214 notifies the user U of the object information corresponding to the identification result. For example, the product name and the image data of the appearance (that is, the packaging container) included in the object information are displayed for notification.

ステップS6において、通知部214は、サーバ装置3による識別結果は正しいか否かを判定する。この判定は、ステップS5における通知内容と、実物の検査対象物4とを見比べたユーザUから、識別結果が正しい旨の操作を受け付けたか否かに基づいて行われる。識別結果が正しい旨の操作を受け付けた場合は、ステップS6においてYesと判定され、処理はステップS7に進む。一方で、識別結果が正しい旨の操作を受け付けない場合は、ステップS6においてNoと判定され、処理はステップS1に戻り、ステップS1の撮影から再度繰り返される。 In step S6, the notification unit 214 determines whether or not the identification result by the server device 3 is correct. This determination is made based on whether or not an operation indicating that the identification result is correct is received from the user U who has compared the notification content in step S5 with the actual inspection target object 4. If the operation to the effect that the identification result is correct is accepted, it is determined as Yes in step S6, and the process proceeds to step S7. On the other hand, if the operation to the effect that the identification result is correct is not accepted, it is determined as No in step S6, the process returns to step S1, and the shooting of step S1 is repeated again.

ステップS7において、対象物情報管理部213は、識別結果に対応する対象物情報を状態判定装置1に対して送信する。
ステップS8において、判定基準設定部113は、識別結果に対応する対象物情報に含まれる所定の閾値を、検査対象物4が破損しているか否かを判定するための基準となる閾値として設定する。なお、詳細は後述するが、本実施形態では、判定するための基準となる閾値として、第1閾値と、第2閾値の2つの閾値を設定する。
In step S7, the object information management unit 213 transmits the object information corresponding to the identification result to the state determination device 1.
In step S8, the determination standard setting unit 113 sets a predetermined threshold value included in the object information corresponding to the identification result as a threshold value as a reference for determining whether or not the inspection object 4 is damaged. .. Although the details will be described later, in the present embodiment, two threshold values, a first threshold value and a second threshold value, are set as reference threshold values for determination.

ステップS9において、判定基準設定部113は、基準となる閾値の設定が終了した旨をウェアラブル端末2に対して送信する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
In step S9, the determination standard setting unit 113 transmits to the wearable terminal 2 that the setting of the reference threshold value has been completed.
In step S10, the notification unit 214 notifies the user U of the status indicating the state of the state determination device 1 as "ready".

ステップS11において、通知部214は、識別結果に対応する対象物情報に含まれる検査時に把持機構65において把持すべき位置の画像データをユーザUに対して通知する。この場合に、例えば、単に把持すべき位置の画像データを包装容器の画像データと共に表示してもよい。
しかしながら、これに限らず、複合現実の技術を用いて、把持すべき位置の画像データと実物の包装容器の位置とが適合するように重畳表示してもよい。この場合に、さらに、「把持を開始して下さい。」といった旨のテキストを表示したり音声を出力したりするようにしてもよい。このようにすると、ユーザUが把持すべき位置や把持を開始するタイミングが容易に認識することが可能となる。
In step S11, the notification unit 214 notifies the user U of the image data of the position to be gripped by the gripping mechanism 65 at the time of inspection included in the object information corresponding to the identification result. In this case, for example, the image data of the position to be gripped may be displayed together with the image data of the packaging container.
However, the present invention is not limited to this, and the image data of the position to be gripped may be superimposed and displayed so as to match the position of the actual packaging container by using the technique of mixed reality. In this case, a text such as "Please start gripping" may be displayed or a voice may be output. By doing so, it becomes possible for the user U to easily recognize the position to be gripped and the timing to start gripping.

このステップS11による通知に伴い、ユーザUは、検査対象物4を把持するために、操作機構55に対する操作を開始する。 With the notification in step S11, the user U starts an operation on the operation mechanism 55 in order to grip the inspection object 4.

次に、図12を参照すると、ステップS12において、動作制御部111は、ユーザUの操作機構55に対する操作に応じて、マスタ装置として動作するマスタ側ユニット50や、スレーブ装置として動作するスレーブ側ユニット60に対して、力・触覚伝達機能を適用した動作の制御を開始する。この動作制御は、ユーザUの操作機構55に対する操作が終了するまで(例えば、後述のステップS33まで)継続する。 Next, referring to FIG. 12, in step S12, the operation control unit 111 operates as a master unit 50 or a slave unit in response to an operation on the operation mechanism 55 of the user U. For 60, the control of the movement to which the force / tactile transmission function is applied is started. This operation control continues until the operation of the user U on the operation mechanism 55 is completed (for example, until step S33 described later).

ステップS13において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
ステップS14において、ステップS13にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上であるか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態であることを確認する意図で行われる。従って、第1閾値は、把持機構65により検査対象物4を把持することが可能な力の値以上の値に設定される。なお、検査対象物4の種類により、把持することが可能な力の値は異なる。そのため、上述したように、本実施形態では、検査対象物4の種類により、第1閾値を異ならせている。
In step S13, the parameter acquisition unit 112 acquires the control parameters related to the current force-tactile sensation calculated in real time.
In step S14, it is determined whether or not the value indicating the force in the control parameter related to the force-tactile sensation acquired in step S13 is equal to or greater than the first threshold value. This determination is made with the intention of confirming that the inspection object 4 is being gripped by the gripping mechanism 65. Therefore, the first threshold value is set to a value equal to or higher than the value of the force capable of gripping the inspection object 4 by the gripping mechanism 65. The value of the force that can be gripped differs depending on the type of the object to be inspected 4. Therefore, as described above, in the present embodiment, the first threshold value is different depending on the type of the inspection object 4.

なお、第1閾値と比較する、本判定での「力を示す値」とは、例えば、スレーブ側アクチュエータ62に含まれる第1アクチュエータにより把持機構65に含まれる第1把持部材を移動させ、スレーブ側アクチュエータ62に含まれる第2アクチュエータにより把持機構65に含まれる第2把持部材を移動させ、これら第1把持部材と、第2把持部材の距離を縮めることにより(例えば、閉じることにより)把持を行うような構成の場合には、第1アクチュエータに対応する力を示す値と、第2アクチュエータに対応する力を示す値のそれぞれとなる。 The "value indicating the force" in this determination to be compared with the first threshold value is, for example, the slave by moving the first gripping member included in the gripping mechanism 65 by the first actuator included in the slave side actuator 62. The second gripping member included in the gripping mechanism 65 is moved by the second actuator included in the side actuator 62, and the distance between the first gripping member and the second gripping member is shortened (for example, by closing) to grip. In the case of such a configuration, each of the value indicates the force corresponding to the first actuator and the value indicates the force corresponding to the second actuator.

力を示す値が第1閾値以上である場合は、ステップS14においてYesと判定され、処理はステップS16に進む。一方で、力を示す値が第1閾値未満である場合は、ステップS14においてNoと判定され、処理はステップS15に進む。 If the value indicating the force is equal to or greater than the first threshold value, Yes is determined in step S14, and the process proceeds to step S16. On the other hand, if the value indicating the force is less than the first threshold value, it is determined as No in step S14, and the process proceeds to step S15.

なお、上述したように、判定部114は、力を示す値が、第1閾値以上であるか否かを判定しており、力を示す値の上限については判定していない。しかしながら、第1閾値以上である場合で、且つ、過剰な力で把持されてしまうと、判定の条件が一定せず、安定した精度での判定が困難となる。また、もともと破損していない検査対象物4であったとしても、この把持が原因で破損してしまう可能性がある。そこで、このように、判定の精度が不安定となることや、破損が発生することを防止するために、把持における力が過剰とならないように(すなわち、把持における力が一定の強さ以上とならないように)抑制する処理をさらに行うようにするとよい。 As described above, the determination unit 114 determines whether or not the value indicating the force is equal to or higher than the first threshold value, and does not determine the upper limit of the value indicating the force. However, when the threshold value is equal to or higher than the first threshold value and the grip is performed with an excessive force, the determination conditions are not constant and it becomes difficult to make a determination with stable accuracy. Further, even if the inspection object 4 is originally not damaged, it may be damaged due to this gripping. Therefore, in order to prevent the determination accuracy from becoming unstable and damage from occurring, the force in gripping should not be excessive (that is, the force in gripping should be a certain strength or more). It is advisable to carry out further suppression processing (so that it does not become).

そのためには、例えば、動作制御部111による動作の制御において、上述した(スケーリング機能)を適用する。このスケーリング機能を適用した場合、基準となる制御に対して、出力される力のスケールを拡大あるいは縮小することができる。そして、動作制御部111は、このスケーリング機能によって、力を示す値が所定値以上となった場合には、マスタ装置の動きの強さ(力)を縮小してスレーブ装置で再現する。すなわち、動作制御部111は、マスタ装置の動きの強さ(力)が過剰となったとしても、これを縮小してスレーブ装置では所定の動きの強さ(力)以上とならないように動作を制御する。これにより、仮にマスタ装置において過剰な力での操作があった場合でも、スレーブ側ユニット60及び把持機構65における把持は過剰な力にならないように抑制される。そのため、判定の精度が不安定となることや、把持が原因で、もともと破損していない検査対象物4が破損してしまうことを防止することができる。 For that purpose, for example, the above-mentioned (scaling function) is applied in the operation control by the operation control unit 111. When this scaling function is applied, the scale of the output force can be scaled up or down with respect to the reference control. Then, when the value indicating the force becomes a predetermined value or more by this scaling function, the motion control unit 111 reduces the strength (force) of the movement of the master device and reproduces it in the slave device. That is, even if the motion strength (force) of the master device becomes excessive, the motion control unit 111 reduces the motion so that the slave device does not exceed the predetermined motion strength (force). Control. As a result, even if the master device is operated with an excessive force, the gripping by the slave side unit 60 and the gripping mechanism 65 is suppressed so as not to be an excessive force. Therefore, it is possible to prevent the determination accuracy from becoming unstable and the inspection object 4, which is not originally damaged, from being damaged due to gripping.

ステップS15において、判定部114は、ステップS13~ステップS17にて用いるカウンタの値をリセットする。そして、処理はステップS13に戻り、繰り返される。これは、把持機構65により検査対象物4が未だ把持されていない状態であるため、カウンタの値をリセットする意図で行われる処理である。 In step S15, the determination unit 114 resets the value of the counter used in steps S13 to S17. Then, the process returns to step S13 and is repeated. This is a process performed with the intention of resetting the value of the counter because the inspection object 4 is not yet gripped by the gripping mechanism 65.

ステップS16において、判定部114は、カウンタの値を1つカウントアップする。
ステップS17において、判定部114は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS17においてYesと判定され、処理はステップS18に進む。一方で、到達していない場合は、ステップS17においてNoと判定され、処理はステップS13に戻り、繰り返される。これは、力が第1閾値以上の状態が所定時間継続しているということから、把持が適切に行われており次の処理に以降できることを確認する意図で行われる処理である。
In step S16, the determination unit 114 counts up the value of the counter by one.
In step S17, the determination unit 114 determines whether or not the value of the counter has reached the specified count number. When it is reached, it is determined as Yes in step S17, and the process proceeds to step S18. On the other hand, if it has not been reached, it is determined as No in step S17, the process returns to step S13, and the process is repeated. This is a process performed with the intention of confirming that the gripping is properly performed and the next process can be performed thereafter because the state in which the force is equal to or higher than the first threshold value continues for a predetermined time.

ステップS18において、判定部114は、ステップS13を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された制御パラメータは、その後、検査対象物4の種類に応じた第1閾値の値を修正する場面等で、ユーザUが参考するために利用される。 In step S18, the determination unit 114 stores the control parameters related to force and tactile sensation acquired by repeating step S13 in the parameter storage unit 151. This stored control parameter is then used for reference by the user U in a situation where the value of the first threshold value corresponding to the type of the inspection object 4 is corrected.

ステップS19において、判定部114は、検査対象物4が破損しているか否かの判定を開始する旨をウェアラブル端末2に対して送信する。
ステップS20において、通知部214は、状態判定装置1の状態を示すスターテスを「判定中」として、ユーザUに対して通知する。
In step S19, the determination unit 114 transmits to the wearable terminal 2 that the determination of whether or not the inspection object 4 is damaged is started.
In step S20, the notification unit 214 notifies the user U of the status indicating the state of the state determination device 1 as "determining".

次に、図13を参照すると、ステップS21において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
ステップS22において、判定部114は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。
Next, referring to FIG. 13, in step S21, the parameter acquisition unit 112 acquires the control parameters related to the current force-tactile sensation calculated in real time.
In step S22, the determination unit 114 determines whether or not the value indicating the force in the control parameter related to the force tactile sensation acquired in step S21 maintains the first threshold value or more. This determination is a process performed with the intention of confirming that the state in which the inspection object 4 is gripped by the gripping mechanism 65 is properly continued.

力を示す値が第1閾値以上を維持している場合は、ステップS22においてYesと判定され、処理はステップS25に進む。一方で、力を示す値が第1閾値以上を維持していない場合(すなわち、力を示す値が第1閾値未満の場合)は、ステップS22においてNoと判定され、処理はステップS24に進む。 When the value indicating the force maintains the first threshold value or more, it is determined as Yes in step S22, and the process proceeds to step S25. On the other hand, when the value indicating the force does not maintain the first threshold value or more (that is, when the value indicating the force is less than the first threshold value), it is determined as No in step S22, and the process proceeds to step S24.

ステップS23において、判定部114は、検査対象物4の把持の失敗を検出した旨をウェアラブル端末2に対して送信する。
ステップS24において、通知部214は、状態判定装置1の状態を示すスターテスを「エラー及びリトライ」として、ユーザUに対して通知する。そして、処理はステップS10に戻り、繰り返される。
In step S23, the determination unit 114 transmits to the wearable terminal 2 that the failure to grip the inspection object 4 has been detected.
In step S24, the notification unit 214 notifies the user U of the start that indicates the state of the state determination device 1 as an "error and retry". Then, the process returns to step S10 and is repeated.

ステップS25において、判定部114は、ステップS21にて取得した力触覚に関する制御パラメータにおける位置を示す値が第2閾値未満であるか否かを判定する。この判定は、把持機構65により検査対象物4が破損していない状態であること確認する意図で行われる処理である。 In step S25, the determination unit 114 determines whether or not the value indicating the position in the control parameter related to the force-tactile sensation acquired in step S21 is less than the second threshold value. This determination is a process performed with the intention of confirming that the inspection object 4 is not damaged by the gripping mechanism 65.

この点、検査対象物4が破損していないのであれば、内容物である二酸化炭素や窒素ガスといった気体の漏れ(いわゆる空気漏れ)や食品等の流出は発生しない。そのため、把持が継続したとしても、検査対象物4である包装容器は、所定の基準以上は潰れないはずである。これに対して、検査対象物4が破損しているのであれば、内容物である二酸化炭素や窒素ガスといった気体の漏れ(いわゆる空気漏れ)や食品等の流出が発生する。そのため、把持が継続すると、検査対象物4である包装容器は、所定の基準以上に潰れてしまう。 In this respect, if the inspection object 4 is not damaged, leakage of gas such as carbon dioxide or nitrogen gas (so-called air leakage) or outflow of food or the like, which are the contents, do not occur. Therefore, even if the gripping is continued, the packaging container which is the inspection object 4 should not be crushed more than a predetermined standard. On the other hand, if the inspection object 4 is damaged, gas leakage (so-called air leakage) such as carbon dioxide and nitrogen gas, which are the contents, and outflow of food and the like occur. Therefore, if the gripping is continued, the packaging container which is the inspection object 4 is crushed more than a predetermined standard.

従って、第2閾値は、検査対象物4が破損していないのであれば、把持機構65により検査対象物4を把持した場合に、位置を示す値がそれ未満とはならない値(すなわち、上述の所定の基準以上潰れないと移動しないはずの位置を示す値)に設定される。例えば、把持機構65が開閉することにより、検査対象物4を把持するような場合に、検査対象物4が破損していないのであれば、それ以上閉まらないはずの位置を示す位置を示す値が第2閾値に設定される。なお、検査対象物4の種類により、上述の所定の基準は異なる。そのため、上述したように、本実施形態では、検査対象物4の種類により、第2閾値を異ならせている。 Therefore, the second threshold value is a value at which the value indicating the position does not become less than that when the inspection object 4 is gripped by the gripping mechanism 65 if the inspection object 4 is not damaged (that is, the above-mentioned value). It is set to a value that indicates a position that should not move unless it is crushed above a predetermined standard. For example, when the gripping mechanism 65 opens and closes to grip the inspection object 4, if the inspection object 4 is not damaged, a value indicating a position indicating a position where the inspection object 4 should not be closed is set. It is set to the second threshold. The above-mentioned predetermined criteria differ depending on the type of the inspection object 4. Therefore, as described above, in the present embodiment, the second threshold value is different depending on the type of the inspection object 4.

なお、第2閾値と比較する、本判定での「位置を示す値」とは、例えば、把持を開始する前のアクチュエータの位置を基準とした相対値となる。例えば、把持機構65に含まれる把持部材が開閉することで把持をする機構である場合、把持を開始する前の開いた状態でのアクチュエータの位置を基準とした相対値となる。
この場合に、判定の精度をより高めるには、基準となる、把持を開始する前の状態が毎回同じ状態であることが望ましい。そこで、例えば、動作制御部111による動作の制御において、力を示す値が所定値未満であり、把持が行われていないことが検出された場合には、スレーブ側アクチュエータ62を制御することにより把持機構65に含まれる把持部材が毎回同じ位置に移動するような制御を行う。例えば、把持機構65に含まれる把持部材が開閉することで把持をする機構である場合、毎回同じ広さで開くようにスレーブ側アクチュエータ62を制御する。これにより、基準となる、把持を開始する前の状態が毎回同じ状態となるので、判定の精度をより高めることが可能となる。
The "value indicating the position" in this determination to be compared with the second threshold value is, for example, a relative value based on the position of the actuator before the start of gripping. For example, in the case of a mechanism for gripping by opening and closing the gripping member included in the gripping mechanism 65, the relative value is based on the position of the actuator in the open state before the start of gripping.
In this case, in order to further improve the accuracy of the determination, it is desirable that the reference state before the start of gripping is the same every time. Therefore, for example, in the operation control by the operation control unit 111, when it is detected that the value indicating the force is less than a predetermined value and the grip is not performed, the slave side actuator 62 is controlled to grip the actuator. Control is performed so that the gripping member included in the mechanism 65 moves to the same position each time. For example, in the case of a mechanism for gripping by opening and closing the gripping member included in the gripping mechanism 65, the slave side actuator 62 is controlled so as to open with the same width each time. As a result, the reference state before the start of gripping becomes the same every time, so that the accuracy of the determination can be further improved.

なお、他の方法として、本判定での「位置を示す値」とは、例えば、スレーブ側アクチュエータ62に含まれる第1アクチュエータにより把持機構65に含まれる第1把持部材を移動させ、スレーブ側アクチュエータ62に含まれる第2アクチュエータにより把持機構65に含まれる第2把持部材を移動させ、これら第1把持部材と、第2把持部材の距離を縮めることにより(例えば、閉じることにより)把持を行うような構成の場合には、第1アクチュエータに対応する位置を示す値と、第2アクチュエータに対応する位置を示す値の、他方を基準とした相対値としてもよい。 As another method, the "value indicating the position" in this determination means, for example, that the first gripping member included in the gripping mechanism 65 is moved by the first actuator included in the slave side actuator 62, and the slave side actuator is used. The second actuator included in 62 moves the second gripping member included in the gripping mechanism 65, and the distance between the first gripping member and the second gripping member is shortened (for example, by closing) to perform gripping. In the case of such a configuration, the value indicating the position corresponding to the first actuator and the value indicating the position corresponding to the second actuator may be relative values with respect to the other.

位置を示す値が第2閾値未満である場合は、ステップS25においてYesと判定され、処理はステップS28に進む。これは、位置が第2閾値未満の状態となっており、検査対象物4が所定の基準以上は潰れている状態のままであることから、検査対象物4が破損したと判定した意図で行われる処理である。一方で、位置を示す値が第2閾値未満である場合は、ステップS25においてNoと判定され、処理はステップS26に進む。 If the value indicating the position is less than the second threshold value, it is determined as Yes in step S25, and the process proceeds to step S28. This is because the position is less than the second threshold value and the inspection object 4 remains crushed by a predetermined standard or more, so that the inspection object 4 is determined to be damaged. It is a process to be done. On the other hand, if the value indicating the position is less than the second threshold value, it is determined as No in step S25, and the process proceeds to step S26.

ステップS26において、判定部114は、ステップS21~ステップS27にて用いるカウンタの値を1つカウントアップする。
ステップS27において、判定部114は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、位置が第2閾値未満とならない状態が所定時間継続しており、把持が行われても検査対象物4が所定の基準以上は潰れない状態のままであるので、検査対象物4が破損していないということを確認する意図で行われる処理である。
In step S26, the determination unit 114 counts up the value of the counter used in steps S21 to S27 by one.
In step S27, the determination unit 114 determines whether or not the value of the counter has reached the specified count number. When it is reached, it is determined as Yes in step S27, and the process proceeds to step S28. On the other hand, if it has not been reached, it is determined as No in step S27, the process returns to step S21, and the process is repeated. This is because the state in which the position does not fall below the second threshold value continues for a predetermined time, and the inspection object 4 remains in a state in which the inspection object 4 is not crushed by a predetermined reference or more even if the gripping is performed. This process is performed with the intention of confirming that the product is not damaged.

上述したように、判定部114は、力を示す値が第1閾値を維持している状態で、且つ、位置を示す値が第2閾値未満とならないか、に基づいて検査対象物4の破損に関する判定を行う。すなわち、把持における力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて判定を行う。このように、判定部114は、力触覚に関する制御パラメータに基づいて、把持におけるインピーダンスを適切に特定し、所定の基準(ここでは、力を一定として接触した場合の移動量という基準)という客観的な指標に基づいた判定を行うことにより、安定した精度での判定を実現することができる。 As described above, the determination unit 114 damages the inspection object 4 based on whether the value indicating the force maintains the first threshold value and the value indicating the position is not less than the second threshold value. Make a judgment about. That is, the determination is made based on the change in position (that is, the amount of movement) while the force in gripping is constant. In this way, the determination unit 114 appropriately specifies the impedance in gripping based on the control parameters related to the force and tactile sensation, and objectively determines a predetermined reference (here, a reference of the amount of movement when the force is constant and in contact). By making a judgment based on various indicators, it is possible to realize a judgment with stable accuracy.

ステップS28において、判定部114は、ステップS21を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された制御パラメータは、その後、検査対象物4の種類に応じた第2閾値の値を修正する場面等で、ユーザUが参考するために利用される。 In step S28, the determination unit 114 stores the control parameters related to force and tactile sensation acquired by repeating step S21 in the parameter storage unit 151. This stored control parameter is then used for reference by the user U in a situation where the value of the second threshold value corresponding to the type of the inspection object 4 is corrected.

ステップS29において、判定部114は、検査対象物4が破損しているか否かの判定結果をウェアラブル端末2に対して送信する。ここで、ステップS25においてYesと判定された後に行われるステップS29では、送信される判定結果は「検査対象物4が破損している。」というものになる。一方で、ステップS27においてYesと判定された後に行われるステップS29では、送信される判定結果は「検査対象物4が破損していない。」というものになる。 In step S29, the determination unit 114 transmits the determination result of whether or not the inspection object 4 is damaged to the wearable terminal 2. Here, in step S29, which is performed after the determination of Yes in step S25, the transmitted determination result is "the inspection object 4 is damaged." On the other hand, in step S29 performed after the determination of Yes in step S27, the transmitted determination result is "the inspection object 4 is not damaged."

ステップS30において、通知部214は、判定結果をユーザUに対して通知する。例えば、判定結果である「検査対象物4が破損している。」という旨、又は「検査対象物4が破損していない。」という旨の何れかを示すテキストを表示したり音声を出力したりする。
ステップS31において、通知部214は、作業情報をユーザUに対して通知する。例えば、この作業情報は、判定結果に応じたものとし、ユーザUが次に行うべき作業を具体的に指示する内容とする。
In step S30, the notification unit 214 notifies the user U of the determination result. For example, a text indicating either "the inspection object 4 is damaged" or "the inspection object 4 is not damaged", which is the determination result, is displayed or a voice is output. Or something.
In step S31, the notification unit 214 notifies the user U of the work information. For example, this work information is based on the determination result, and the content is such that the user U specifically instructs the work to be performed next.

これらステップS30及びステップS31における通知の具体例について、図14及び図15を参照して説明をする。図14は、検査対象物4が破損していないと判定された場合の通知例を示す模式図である。図15は、検査対象物4が破損していると判定された場合の通知例を示す模式図である。 Specific examples of the notifications in steps S30 and S31 will be described with reference to FIGS. 14 and 15. FIG. 14 is a schematic diagram showing a notification example when it is determined that the inspection object 4 is not damaged. FIG. 15 is a schematic diagram showing a notification example when it is determined that the inspection object 4 is damaged.

図14に、出力部27に含まれる透過型ディスプレイを示す。このディスプレイは透過型であるので、ユーザUは、ディスプレイを介して自身が操作する状態判定装置1と、この状態判定装置1で把持している検査対象物4と、格納先となるコンテナと、の実物を視認することができる。なお、図14及び図15では、これらディスプレイを透過して視認される実物を破線で表す。加えて、ディスプレイ上には、通知部214により通知された情報が表示される。具体的に、ディスプレイ上の領域AR1には、検査対象物4が破損していないという判定結果に対応する「OK」というテキストや、位置を示す値(図中では「測定値」)が、第2閾値(図中では「閾値」)未満であることを示すテキストが表示される。また、ディスプレイ上の領域AR2には、作業において格納すべき各製品の数と、格納すべき数に不足している製品の数とが表示される。この表示は、作業情報記憶部252に記憶されている作業情報等に基づいて生成することができる。さらに、ディスプレイ上の領域AR3には、ユーザUが次に行うべき作業を具体的に指示する内容として「コンテナABCに格納」という検査対象物4の格納先を示すテキストが表示される。 FIG. 14 shows a transmissive display included in the output unit 27. Since this display is a transmissive type, the user U has a state determination device 1 operated by himself / herself via the display, an inspection object 4 held by the state determination device 1, a container as a storage destination, and a container. You can see the real thing. In addition, in FIGS. 14 and 15, the real thing which is visually recognized through these displays is represented by a broken line. In addition, the information notified by the notification unit 214 is displayed on the display. Specifically, in the area AR1 on the display, the text "OK" corresponding to the determination result that the inspection object 4 is not damaged and the value indicating the position ("measured value" in the figure) are the first. 2 Text indicating that the value is less than the threshold value (“threshold value” in the figure) is displayed. Further, in the area AR2 on the display, the number of each product to be stored in the work and the number of products lacking in the number to be stored are displayed. This display can be generated based on the work information or the like stored in the work information storage unit 252. Further, in the area AR3 on the display, a text indicating the storage destination of the inspection object 4 "stored in the container ABC" is displayed as a content for specifically instructing the work to be performed next by the user U.

図15にも、出力部27に含まれる透過型ディスプレイを示す。ユーザUは、ディスプレイを介して自身が操作する状態判定装置1と、この状態判定装置1で把持している検査対象物4と、廃棄先となるコンテナと、の実物を視認することができる。加えて、ディスプレイ上の領域AR4には、検査対象物4が破損しているという判定結果に対応する「NG」というテキストや、位置を示す値(図中では「測定値」)が、第2閾値(図中では「閾値」)を超えたことを示すテキストが表示される。また、ディスプレイ上の領域AR5には、ユーザUが次に行うべき作業を具体的に指示する内容として「廃棄コンテナに廃棄」という検査対象物4の廃棄先を示すテキストが表示される。 FIG. 15 also shows a transmissive display included in the output unit 27. The user U can visually recognize the actual state determination device 1 operated by the user U via the display, the inspection object 4 held by the state determination device 1, and the container to be discarded. In addition, in the area AR4 on the display, the text "NG" corresponding to the determination result that the inspection object 4 is damaged and the value indicating the position ("measured value" in the figure) are second. Text indicating that the threshold (“threshold” in the figure) has been exceeded is displayed. Further, in the area AR5 on the display, a text indicating the disposal destination of the inspection object 4 "discard in the disposal container" is displayed as the content for specifically instructing the work to be performed next by the user U.

ユーザUは、これら図14や図15に例示したような表示を参照することにより、判定結果や、作業の進捗状況や、自身が次に行うべき作業、といった様々な情報を容易に把握することができる。すなわち、本実施形態では、力触覚を伝達する技術と、複合現実の技術を組み合わせて、ユーザUの検査等における作業や判断を補助(すなわち、サポート)することができる。また、検査作業を、仕分けやピッキングといった作業と並行して行うことができるので、作業工程を圧縮することができる。 By referring to the displays as illustrated in FIGS. 14 and 15, the user U can easily grasp various information such as the determination result, the progress of the work, and the work to be performed next by the user U. Can be done. That is, in the present embodiment, the technique of transmitting force and tactile sensation and the technique of mixed reality can be combined to assist (that is, support) the work and judgment in the inspection and the like of the user U. Further, since the inspection work can be performed in parallel with the work such as sorting and picking, the work process can be compressed.

次に、図16を参照すると、ステップS32において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。
ステップS33において、判定部114は、ステップS32にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値未満か否かを判定する。この判定は、ユーザUが図15や図16のような通知を参照して作業を完了し(例えば、検査対象物4をコンテナに格納し)、把持機構65により検査対象物4が把持されている状態が終了したことを確認する意図で行われる。
Next, referring to FIG. 16, in step S32, the parameter acquisition unit 112 acquires the control parameters related to the current force-tactile sensation calculated in real time.
In step S33, the determination unit 114 determines whether or not the value indicating the force in the control parameter related to the force tactile sensation acquired in step S32 is less than the first threshold value. In this determination, the user U completes the work with reference to the notification as shown in FIGS. 15 and 16 (for example, the inspection object 4 is stored in the container), and the inspection object 4 is gripped by the gripping mechanism 65. It is done with the intention of confirming that the current state has ended.

力を示す値が第1閾値未満の場合は、ステップS33においてYesと判定され、処理はステップS34に進む。一方で、力を示す値が第1閾値以上の場合(すなわち、未だ把持が継続している場合)は、ステップS33においてNoと判定され、処理はステップS32に戻り、判定を繰り返す。 If the value indicating the force is less than the first threshold value, Yes is determined in step S33, and the process proceeds to step S34. On the other hand, when the value indicating the force is equal to or higher than the first threshold value (that is, when the grip is still continued), No is determined in step S33, the process returns to step S32, and the determination is repeated.

ステップS34において、判定部114は、ステップS32を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された制御パラメータは、その後、検査対象物4の種類に応じた第1閾値の値を修正する場面等で、ユーザUが参考するために利用される。 In step S34, the determination unit 114 stores the control parameters related to force and tactile sensation acquired by repeating step S32 in the parameter storage unit 151. This stored control parameter is then used for reference by the user U in a situation where the value of the first threshold value corresponding to the type of the inspection object 4 is corrected.

ステップS35において、判定部114は、一連の状態判定処理が終了した旨をウェアラブル端末2に対して送信する。
ステップS30において、通知部214は、一連の状態判定処理が終了したことをユーザUに対して通知する。
ステップS37において、通知部214は、状態判定装置1の状態を示すスターテスを初期化する。
In step S35, the determination unit 114 transmits to the wearable terminal 2 that a series of state determination processes have been completed.
In step S30, the notification unit 214 notifies the user U that a series of state determination processes have been completed.
In step S37, the notification unit 214 initializes the start test indicating the state of the state determination device 1.

ステップS38において、作業情報管理部215は、今回の作業内容を反映して、作業情報記憶部252が記憶する作業情報を更新する。例えば、検査対象物4が破損しておらず、コンテナに格納されたのであれば、このコンテナの現在の格納数を増加させる。あるいは、検査対象物4が破損しており、廃棄されたのであれば、廃棄数を増加させる。また、これらの作業を行ったユーザUの識別情報や、作業終了時刻等の情報も追加する。
ステップS39において、作業情報管理部215は、更新後の作業情報をサーバ装置3に対して送信する。
In step S38, the work information management unit 215 updates the work information stored in the work information storage unit 252, reflecting the current work content. For example, if the inspection object 4 is not damaged and is stored in a container, the current number of stored objects in this container is increased. Alternatively, if the inspection object 4 is damaged and discarded, the number of discarded objects is increased. In addition, information such as the identification information of the user U who has performed these operations and the work end time is also added.
In step S39, the work information management unit 215 transmits the updated work information to the server device 3.

ステップS40において、作業情報管理部313は、受信した更新後の作業情報に基づいて、作業情報記憶部352が記憶する作業情報を更新する。これにより、本処理は終了する。このように、ステップS38~ステップS40の処理を行うことにより、ユーザUの検査等における作業や判断を補助(すなわち、サポート)するのみならず、現在の作業情報を簡便に更新したり、最終的な作業履歴を簡便に作成したりすることが可能となる。 In step S40, the work information management unit 313 updates the work information stored in the work information storage unit 352 based on the received updated work information. This ends this process. In this way, by performing the processes of steps S38 to S40, not only the work and judgment in the inspection and the like of the user U are assisted (that is, support), but also the current work information can be easily updated and finally. It is possible to easily create various work histories.

以上説明した、状態判定処理によれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
また、状態判定処理によれば、検査作業を、仕分けやピッキングといった作業と並行して行うことができる、すなわち、作業工程を圧縮することができる。
According to the state determination process described above, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.
Further, according to the state determination process, the inspection work can be performed in parallel with the work such as sorting and picking, that is, the work process can be compressed.

<第2実施形態>
以上、本発明の第1実施形態について説明した。続いて、本発明の第2実施形態について以下説明をする。以下では、第1実施形態とは相違する、第2実施形態特有の構成や処理内容について特に詳細に説明する。一方で、第1実施形態と第2実施形態とで重複する内容については、再度の説明を適宜省略する。
<Second Embodiment>
The first embodiment of the present invention has been described above. Subsequently, the second embodiment of the present invention will be described below. Hereinafter, the configuration and processing contents peculiar to the second embodiment, which are different from the first embodiment, will be described in particular detail. On the other hand, the contents overlapping between the first embodiment and the second embodiment will be omitted again as appropriate.

[第1実施形態との相違点の概要]
まず、第1実施形態と第2実施形態との相違点について簡略に説明する。第1実施形態では、状態判定処理を実施する場合に、ステップS25において、力触覚に関する制御パラメータと、第2閾値とを比較することで、検査対象物4の破損に関する判定をしていた。
[Summary of differences from the first embodiment]
First, the differences between the first embodiment and the second embodiment will be briefly described. In the first embodiment, when the state determination process is performed, in step S25, the damage of the inspection object 4 is determined by comparing the control parameter relating to the force-tactile sensation with the second threshold value.

これに対して、第2実施形態では、状態判定処理を実施するに先立って、予め「機械学習処理」を実施する。ここで、機械学習処理は、力触覚に関する制御パラメータと、検査対象物4の破損に関する判定結果との組を教師データとした機械学習をすることで、力触覚に関する制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルを構築する一連の処理である。
そして、第2実施形態では、機械学習処理の後に、状態判定処理を実施する。この状態判定処理では、機械学習処理において構築した機械学習モデルに対して、判定対象とする検査対象物4の把持時に動作制御部111が動作制御において用いた力触覚に関する制御パラメータを入力することで破損に関する判定を行う。
これにより、第2実施形態では、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標に基づいて判定をすることとなり、より安定した精度での検査を実現することができる。
On the other hand, in the second embodiment, the "machine learning process" is performed in advance before the state determination process is performed. Here, in the machine learning process, the control parameters related to the force-tactile sensation and the inspection object 4 are subjected to machine learning using the set of the control parameters related to the force-tactile sensation and the determination result regarding the damage of the inspection object 4 as the teacher data. It is a series of processes to build a machine learning model in which the relationship with the judgment result regarding the damage of is machine-learned.
Then, in the second embodiment, the state determination process is performed after the machine learning process. In this state determination process, the control parameters related to the force-tactile sensation used in the motion control by the motion control unit 111 when grasping the inspection object 4 to be determined are input to the machine learning model constructed in the machine learning process. Make a judgment about damage.
As a result, in the second embodiment, the judgment is made based on an objective index called a machine learning model in which the relationship between the control parameter and the judgment result regarding the damage of the inspection object 4 is machine-learned, which is more stable. Inspection with accuracy can be realized.

[システム構成]、[制御対象装置に対する動作制御]及び[状態判定装置の構成]
本実施形態に係る状態判定システムSの全体構成は、図1を参照して説明した第1実施形態の全体構成と同様である。また、検査対象物4として、食品(例えば、ポテトチップス等のお菓子)等を内容物として包装する包装容器であることを想定する点や、力触覚に関する制御パラメータとして位置を示す値を想定する点も第1実施形態と同様である。
さらに、本実施形態における、制御対象装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、操作機構55、スレーブ側ユニット60、及び把持機構65)に対する動作制御の基本的原理についても、図2~図6を参照して説明した第1実施形態の動作制御の基本的原理と同様である。
さらに、本実施形態における、状態判定装置1の基本的構成についても、制御ユニット10以外については、図7を参照して説明した第1実施形態の状態判定装置1の基本的構成と同様である。
したがって、これらの点について、重複する説明を省略する。
[System configuration], [Operation control for controlled device] and [Status determination device configuration]
The overall configuration of the state determination system S according to the present embodiment is the same as the overall configuration of the first embodiment described with reference to FIG. Further, it is assumed that the inspection object 4 is a packaging container for packaging food (for example, sweets such as potato chips) as the content, and a value indicating the position as a control parameter related to force and tactile sensation is assumed. The points are the same as those in the first embodiment.
Further, the basic principle of operation control for the controlled object device (here, the master side unit 50, the operation mechanism 55, the slave side unit 60, and the gripping mechanism 65 included in the state determination device 1) in the present embodiment is also described. It is the same as the basic principle of the operation control of the first embodiment described with reference to FIGS. 2 to 6.
Further, the basic configuration of the state determination device 1 in the present embodiment is the same as the basic configuration of the state determination device 1 of the first embodiment described with reference to FIG. 7, except for the control unit 10. ..
Therefore, duplicate description of these points will be omitted.

本実施形態において、制御ユニット10(以下、本実施形態における制御ユニット10を「制御ユニット10a」と称する。)は、マスタ側ユニット50のマスタ装置としての動作や、スレーブ側ユニット60のスレーブ装置としての動作を制御することにより把持装置としての機能を実現すると共に、さらに、ウェアラブル端末2やサーバ装置3と協働することで、上述した機械学習処理や状態判定処理を行なう。 In the present embodiment, the control unit 10 (hereinafter, the control unit 10 in the present embodiment is referred to as a "control unit 10a") operates as a master device of the master side unit 50 or as a slave device of the slave side unit 60. By controlling the operation of the above, the function as a gripping device is realized, and further, by cooperating with the wearable terminal 2 and the server device 3, the above-mentioned machine learning process and state determination process are performed.

図17は、この機械学習処理や状態判定処理を実現するための、制御ユニット10aのハードウェア及び機能ブロックの一例を示すブロック図である。本実施形態の制御ユニット10aは、第1実施形態の制御ユニット10との相違点として、ハードウェアとしてセンサ19をさらに含む。 FIG. 17 is a block diagram showing an example of hardware and functional blocks of the control unit 10a for realizing the machine learning process and the state determination process. The control unit 10a of the present embodiment further includes a sensor 19 as hardware as a difference from the control unit 10 of the first embodiment.

センサ19は、制御ユニット10aを備えた状態判定装置1の周囲の環境を示す情報として、状態判定装置1の周囲の温度(すなわち、気温)、湿度及び気圧を計測するセンサ群により構成される。センサ19による計測は、例えば、機械学習処理や状態判定処理において、制御ユニット10aが状態判定装置1を把持装置として機能させて、検査対象物4を把持している間に行われる。センサ19における計測結果は、適宜プロセッサ11に対して出力される。 The sensor 19 is composed of a group of sensors that measure the ambient temperature (that is, air temperature), humidity, and atmospheric pressure of the state determination device 1 as information indicating the environment around the state determination device 1 provided with the control unit 10a. The measurement by the sensor 19 is performed, for example, in the machine learning process or the state determination process, while the control unit 10a makes the state determination device 1 function as a gripping device and grips the inspection object 4. The measurement result of the sensor 19 is output to the processor 11 as appropriate.

このようなハードウェア構成において、機械学習処理や状態判定処理を実現する場合、図17に示すようにプロセッサ11にて、動作制御部111と、パラメータ取得部112と、正解情報取得部115と、環境情報取得部116と、処理部117と、が機能する。このように、本実施形態の制御ユニット10aでは、第1実施形態の制御ユニット10との相違点として、正解情報取得部115と、環境情報取得部116と、処理部117と、が機能する一方で、判定基準設定部113と、判定部114と、は機能しない。
また、このようなハードウェア構成において、機械学習処理や状態判定処理を実現する場合、図17に示すように記憶部15の一領域には、パラメータ記憶部151と、正解情報記憶部153と、環境情報記憶部154と、が設定される。このように、本実施形態の制御ユニット10aでは、第1実施形態の制御ユニット10との相違点として、正解情報記憶部153と、環境情報記憶部154と、が設定される一方で、判定基準記憶部152は設定されない。
When machine learning processing and state determination processing are realized in such a hardware configuration, as shown in FIG. 17, the operation control unit 111, the parameter acquisition unit 112, the correct answer information acquisition unit 115, and the processor 11 are used. The environment information acquisition unit 116 and the processing unit 117 function. As described above, in the control unit 10a of the present embodiment, the correct answer information acquisition unit 115, the environment information acquisition unit 116, and the processing unit 117 function as differences from the control unit 10 of the first embodiment. Therefore, the determination standard setting unit 113 and the determination unit 114 do not function.
Further, in the case of realizing machine learning processing and state determination processing in such a hardware configuration, as shown in FIG. 17, one area of the storage unit 15 includes a parameter storage unit 151, a correct answer information storage unit 153, and the like. The environmental information storage unit 154 and the like are set. As described above, in the control unit 10a of the present embodiment, the correct answer information storage unit 153 and the environmental information storage unit 154 are set as differences from the control unit 10 of the first embodiment, while the determination criteria are set. The storage unit 152 is not set.

正解情報取得部115は、機械学習処理にて教師データの一部として用いる「正解情報」を取得する。機械学習処理では、機械学習を行うための教師データを作成する目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。そして、正解情報は、この把持をした検査対象物4が破損しているか否かについての判定結果であり、機械学習において正解を示す情報(すなわち、正解を示すラベル)として用いられる。 The correct answer information acquisition unit 115 acquires "correct answer information" used as a part of teacher data in the machine learning process. In the machine learning process, the state determination device 1 is made to function as a gripping device for the purpose of creating teacher data for performing machine learning, and the inspection object 4 is gripped. The correct answer information is a determination result as to whether or not the gripped inspection object 4 is damaged, and is used as information indicating the correct answer (that is, a label indicating the correct answer) in machine learning.

正解情報は、例えば、熟練者であるユーザUが、把持機構65が検査対象物4を把持した際の操作機構55に対する反力のフィードバックに基づいて判定した、検査対象物4が破損しているか否かという判定結果である。これにより、例えば、熟練者であるユーザUが通常の作業の一環として検査対象物4への検査を行うのみで、さらに教師データを収集することもできる。あるいは、正解情報は、例えば、予め検査対象物4が破損しているか否かという判定結果を把握しているユーザUによる判定結果である。正解情報は、機械学習における正解を示す情報として用いられるので、機械学習の精度を高めるために、ユーザUによる正しい判断結果のみを正解情報として取得する。 The correct answer information is, for example, whether the inspection object 4 is damaged, which is determined by the expert user U based on the feedback of the reaction force against the operation mechanism 55 when the gripping mechanism 65 grips the inspection object 4. It is a judgment result of whether or not. As a result, for example, the user U, who is an expert, can only inspect the inspection object 4 as part of the normal work, and can further collect teacher data. Alternatively, the correct answer information is, for example, a determination result by the user U who knows in advance a determination result as to whether or not the inspection object 4 is damaged. Since the correct answer information is used as information indicating the correct answer in machine learning, only the correct judgment result by the user U is acquired as the correct answer information in order to improve the accuracy of machine learning.

このような正解情報は、例えば、ウェアラブル端末2が、ユーザUから音声からなる指示やジェスチャーからなる指示操作を受け付けることにより入力され、ネットワークNを介した通信により、正解情報取得部115に取得される。
そして、正解情報取得部115は、このようにして取得した正解情報を、教師データの一部として正解情報記憶部153に記憶させる。すなわち、正解情報記憶部153は、正解情報を記憶する記憶部として機能する。
Such correct answer information is input, for example, by the wearable terminal 2 receiving an instruction consisting of voice or an instruction operation consisting of gestures from the user U, and is acquired by the correct answer information acquisition unit 115 by communication via the network N. To.
Then, the correct answer information acquisition unit 115 stores the correct answer information acquired in this way in the correct answer information storage unit 153 as a part of the teacher data. That is, the correct answer information storage unit 153 functions as a storage unit for storing correct answer information.

環境情報取得部116は、機械学習処理にて教師データの一部として用いたり、状態判定処理における入力データの一部として用いたりする「環境情報」を取得する。
上述したように、機械学習処理では、機械学習を行うための教師データを作成する目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。また、状態判定処理においても、検査対象物4の破損に関する判定をする目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。
環境情報は、これらの把持をした際に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧である。
The environmental information acquisition unit 116 acquires "environmental information" to be used as a part of teacher data in machine learning processing or as a part of input data in state determination processing.
As described above, in the machine learning process, the state determination device 1 is made to function as a gripping device for the purpose of creating teacher data for performing machine learning, and the inspection object 4 is gripped. Further, also in the state determination process, the state determination device 1 is made to function as a gripping device for the purpose of determining the damage of the inspection object 4, and the inspection object 4 is gripped.
The environmental information is the temperature, humidity, and atmospheric pressure around the state determination device 1 measured by the sensor 19 when these are gripped.

本実施形態において、環境情報を用いる理由について説明する。一般に、気圧の変化と温度の変化は関連性を有することが知られている。例えば、気圧が低下すると温度も低下する。そして、これらの気圧や温度が、これらが上がるあるいは下がることにより、包装容器である検査対象物4内部の気体が収縮あるいは膨張する。例えば、検査対象物4を高地に運搬した場合に、周囲の気圧や温度が下がることに伴い、検査対象物4内の気体が膨張する結果、検査対象物4自体も膨張する。このような事象が発生することから、気圧や温度は、把持を行った場合の力触覚に関する制御パラメータの値の変化に影響を与える。 The reason for using the environmental information in this embodiment will be described. It is generally known that changes in barometric pressure and changes in temperature are related. For example, when the atmospheric pressure drops, the temperature also drops. Then, when these atmospheric pressures and temperatures rise or fall, the gas inside the inspection object 4, which is a packaging container, contracts or expands. For example, when the inspection target 4 is transported to a highland, the gas in the inspection target 4 expands as the ambient air pressure and temperature decrease, and as a result, the inspection target 4 itself also expands. Since such an event occurs, the atmospheric pressure and the temperature affect the change in the value of the control parameter related to the force and tactile sensation when grasping.

また、湿度については、例えば、湿気により内容物が腐敗し体積が増したり、温度や気圧の変化と連動して包装容器内の水蒸気が増えて容器が膨張したりするといった事象が発生し、これも把持を行った場合の力触覚に関する制御パラメータの値の変化に影響を与え得る。
そこで、本実施形態では、このような環境の違いに起因する、力触覚に関する制御パラメータの値の変化への影響も考慮し、状態判定装置1の周囲の温度、湿度及び気圧といった環境情報を教師データの一部として機械学習を行う。これにより、より精度高く判定を行うことが可能な機械学習モデルを構築し、破損に関する判定を行うことができる。
Regarding humidity, for example, the contents rot due to humidity and the volume increases, and the water vapor in the packaging container increases in conjunction with changes in temperature and atmospheric pressure, causing the container to expand. Can also affect changes in the values of control parameters related to force and tactile sensation when gripping.
Therefore, in the present embodiment, environmental information such as the ambient temperature, humidity, and atmospheric pressure of the state determination device 1 is taught in consideration of the influence on the change of the value of the control parameter related to the force and tactile sensation caused by such a difference in environment. Perform machine learning as part of the data. As a result, a machine learning model capable of making a judgment with higher accuracy can be constructed, and a judgment regarding damage can be made.

このような環境情報は、例えば、センサ19により測定され、環境情報取得部116に取得される。
そして、環境情報取得部116は、このようにして取得した環境情報を、教師データの一部や入力データの一部として環境情報記憶部154に記憶させる。すなわち、環境情報記憶部154は、環境情報を記憶する記憶部として機能する。
Such environmental information is measured by, for example, the sensor 19 and acquired by the environmental information acquisition unit 116.
Then, the environmental information acquisition unit 116 stores the environmental information acquired in this way in the environmental information storage unit 154 as a part of the teacher data or a part of the input data. That is, the environmental information storage unit 154 functions as a storage unit for storing environmental information.

なお、正解情報取得部115や環境情報取得部116による、正解情報の取得や環境情報を取得と並行して、パラメータ取得部112による力触覚に関する制御パラメータの取得も行われる。
そして、パラメータ取得部112は、この取得した力触覚に関する制御パラメータを、教師データの一部として用いたり、状態判定処理における入力データの一部として用いたりするためにパラメータ記憶部151に記憶させる。すなわち、パラメータ記憶部151は、力触覚に関する制御パラメータを記憶する記憶部として機能する。
In addition, in parallel with the acquisition of the correct answer information and the acquisition of the environmental information by the correct answer information acquisition unit 115 and the environmental information acquisition unit 116, the parameter acquisition unit 112 also acquires the control parameters related to the force-tactile sensation.
Then, the parameter acquisition unit 112 stores the acquired control parameter related to force and tactile sensation in the parameter storage unit 151 in order to use it as a part of the teacher data or as a part of the input data in the state determination process. That is, the parameter storage unit 151 functions as a storage unit for storing control parameters related to force and tactile sensation.

処理部117は、機械学習処理や状態判定処理において、他の装置と種々の情報を送受する、というような種々の処理を実行する。例えば、機械学習処理において、処理部117は、教師データを作成するために或る検査対象物4を把持した際に、パラメータ取得部112により取得された力触覚に関する制御パラメータ、正解情報取得部115により取得された正解情報(すなわち、正解を示すラベル)、及び環境情報取得部116により取得された環境情報のそれぞれを対応する記憶部から読み出して組とする。そして、処理部117は、この組とした情報を教師データとして、サーバ装置3に対して送信する。 The processing unit 117 executes various processes such as sending and receiving various information with other devices in the machine learning process and the state determination process. For example, in machine learning processing, when the processing unit 117 grips a certain inspection object 4 for creating teacher data, the control parameter related to force and tactile sensation acquired by the parameter acquisition unit 112, the correct answer information acquisition unit 115. The correct answer information (that is, the label indicating the correct answer) acquired by the above and the environmental information acquired by the environmental information acquisition unit 116 are read out from the corresponding storage units to form a set. Then, the processing unit 117 transmits this set of information as teacher data to the server device 3.

他にも、例えば、状態判定処理において、処理部117は、判定対象とする検査対象物4を把持した際に、パラメータ取得部112により取得された力触覚に関する制御パラメータ、及び環境情報取得部116により取得された環境情報のそれぞれを対応する記憶部から読み出して組とする。そして、処理部117は、この組とした情報を入力データとして、サーバ装置3に対して送信する。
サーバ装置3による、この教師データを用いた機械学習方法や、この入力データを用いた判定方法については、図18のブロック図を参照して後述する。
In addition, for example, in the state determination process, the processing unit 117 has a control parameter related to force and tactile sensation acquired by the parameter acquisition unit 112 when the inspection object 4 to be determined is grasped, and an environmental information acquisition unit 116. Each of the environmental information acquired by is read from the corresponding storage unit and made into a set. Then, the processing unit 117 transmits this set of information as input data to the server device 3.
The machine learning method using the teacher data and the determination method using the input data by the server device 3 will be described later with reference to the block diagram of FIG.

[ウェアラブル端末の構成]
本実施形態における、ウェアラブル端末2のハードウェア及び機能ブロックについては、図9を参照して説明した第1実施形態のウェアラブル端末2のハードウェア及び機能ブロックと同様である。したがって、この点について、重複する説明を省略する。なお、ウェアラブル端末2の処理の一部は、第1実施形態と異なるが、この点については、図19~図22のフローチャートを参照して後述する。
[Wearable device configuration]
The hardware and functional blocks of the wearable terminal 2 in the present embodiment are the same as the hardware and functional blocks of the wearable terminal 2 of the first embodiment described with reference to FIG. Therefore, a duplicate description will be omitted on this point. A part of the processing of the wearable terminal 2 is different from that of the first embodiment, but this point will be described later with reference to the flowcharts of FIGS. 19 to 22.

[サーバ装置の構成]
次に、サーバ装置3(以下、本実施形態におけるサーバ装置3を「サーバ装置3a」と称する。)の構成について、図18を参照して説明をする。図18は、サーバ装置3aのハードウェア及び機能ブロックの一例を示すブロック図である。図18に示すように、サーバ装置3aは、第1実施形態のサーバ装置3と同様のハードウェアを備える。
[Server device configuration]
Next, the configuration of the server device 3 (hereinafter, the server device 3 in the present embodiment is referred to as “server device 3a”) will be described with reference to FIG. FIG. 18 is a block diagram showing an example of hardware and functional blocks of the server device 3a. As shown in FIG. 18, the server device 3a includes the same hardware as the server device 3 of the first embodiment.

このようなハードウェア構成において、機械学習や状態判定処理を実現する場合、図18に示すようにプロセッサ31にて、対象物情報管理部311と、識別部312と、作業情報管理部313と、機械学習部314と、判定部315と、が機能する。このように、本実施形態のサーバ装置3aでは、第1実施形態のサーバ装置3との相違点として、機械学習部314と、判定部315と、が機能する
また、この場合、図18に示すように記憶部35の一領域には、対象物情報管理部351と、作業情報記憶部352と、教師データ記憶部353と、学習モデル記憶部354と、が設定される。このように、本実施形態のサーバ装置3aでは、第1実施形態のサーバ装置3との相違点として、教師データ記憶部353と、学習モデル記憶部354と、が設定される
When machine learning and state determination processing are realized in such a hardware configuration, as shown in FIG. 18, the object information management unit 311, the identification unit 312, the work information management unit 313, and the processor 31 are used. The machine learning unit 314 and the determination unit 315 function. As described above, in the server device 3a of the present embodiment, the machine learning unit 314 and the determination unit 315 function as differences from the server device 3 of the first embodiment, and in this case, it is shown in FIG. As described above, in one area of the storage unit 35, an object information management unit 351, a work information storage unit 352, a teacher data storage unit 353, and a learning model storage unit 354 are set. As described above, in the server device 3a of the present embodiment, the teacher data storage unit 353 and the learning model storage unit 354 are set as differences from the server device 3 of the first embodiment.

機械学習部314は、機械学習処理において、機械学習を行うことにより、検査対象物4の破損に関する判定を行うための機械学習モデルを構築する。
そのために、機械学習部314は、まず状態判定装置1から教師データを取得する。上述したように、この教師データは、教師データを作成するために或る検査対象物4を把持した際に取得された、力触覚に関する制御パラメータ、正解情報(すなわち、正解を示すラベル)、及び環境情報を組としたものである。なお、教師データとして他の情報を用いてもよい。例えば、検査対象物4ではない物体を把持した際に取得された、力触覚に関する制御パラメータ、不正解を示すラベル、及び環境情報を組としたものを教師データとして用いてもよい。
The machine learning unit 314 constructs a machine learning model for determining damage to the inspection object 4 by performing machine learning in the machine learning process.
Therefore, the machine learning unit 314 first acquires teacher data from the state determination device 1. As described above, this teacher data includes control parameters related to force and tactile sensation, correct answer information (that is, a label indicating the correct answer), and correct answer information acquired when the inspection object 4 is grasped to create the teacher data. It is a set of environmental information. In addition, other information may be used as teacher data. For example, a set of control parameters related to force and tactile sensation, a label indicating an incorrect answer, and environmental information acquired when grasping an object other than the inspection object 4 may be used as teacher data.

そして、機械学習部314は、この教師データを用いて、教師あり機械学習を行う。この場合、例えば、機械学習部314は、パーセプトロンを組み合わせて構成したニューラルネットワークにより、機械学習を行う。具体的には、教師データに含まれる力触覚に関する制御パラメータや環境情報といったデータの特徴量をニューラルネットワークの入力層に対して入力データとして与え、ニューラルネットワークの出力層の出力が正解情報(すなわち、正解を示すラベル)と同じとなるように、各パーセプトロンについての重み付けを変更しながら学習を繰り返す。
そして、機械学習部314は、所定の条件(例えば、出力が所定以上の高い精度で正解となることや、所定時間学習を繰り返したこと)が満たされた場合に、学習を終了し、その時点で構築された機械学習モデルを学習モデル記憶部354に記憶させる。
すなわち、学習モデル記憶部354は、機械学習モデルを記憶する記憶部として機能する。なお、構築とは、新たに機械学習モデルを作成することのみならず、学習モデル記憶部354が記憶している機械学習モデルに対して、新たな教師データを用いて再学習を行うことも含む。
Then, the machine learning unit 314 uses the teacher data to perform supervised machine learning. In this case, for example, the machine learning unit 314 performs machine learning by a neural network configured by combining perceptrons. Specifically, data features such as force-tactile control parameters and environmental information included in the teacher data are given as input data to the input layer of the neural network, and the output of the output layer of the neural network is correct information (that is, that is). The learning is repeated while changing the weighting for each perceptron so as to be the same as the label indicating the correct answer).
Then, the machine learning unit 314 ends learning when a predetermined condition (for example, the output becomes a correct answer with a higher accuracy than a predetermined value or the learning is repeated for a predetermined time) is satisfied, and at that time. The machine learning model constructed in is stored in the learning model storage unit 354.
That is, the learning model storage unit 354 functions as a storage unit for storing the machine learning model. It should be noted that the construction includes not only creating a new machine learning model but also re-learning the machine learning model stored in the learning model storage unit 354 using new teacher data. ..

なお、機械学習の手法は必ずしも限定されず、例えば、ニアレストネイバー法、決定木、ランダムフォレスト、サポートベクターマシン等の分類問題に好適な他の手法を用いたりしてもよい。また、機械学習部314は、1つの機械学習モデルを構築するのみでもよいが、把持対象となった材質や大きさの異なる検査対象物4の種類それぞれに応じた、複数の機械学習モデルを構築してもよい。すなわち、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにしてもよい。 The machine learning method is not always limited, and other methods suitable for classification problems such as the nearest neighbor method, decision tree, random forest, and support vector machine may be used. Further, the machine learning unit 314 may construct only one machine learning model, but constructs a plurality of machine learning models according to each of the types of inspection objects 4 having different materials and sizes to be gripped. You may. That is, the machine learning model may be used properly according to the type of the inspection object 4.

判定部315は、状態判定処理において、機械学習モデルを用いて、検査対象物4の破損に関する判定を行う。
そのために、判定部315は、まず状態判定装置1から判定用の入力データを取得する。上述したように、この入力データは、判定対象とする検査対象物4を把持した際に取得された、力触覚に関する制御パラメータ、及び環境情報を組としたものである。
そして、判定部315は、この入力データと、学習モデル記憶部354が記憶している機械学習モデルを用いて、検査対象物4の破損に関する判定を行う。なお、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにした場合には、当然のことながら、判定部315は、今回の判定対象の検査対象物4の種類に応じた機械学習モデルを用いて判定を行う。
In the state determination process, the determination unit 315 makes a determination regarding the damage of the inspection object 4 by using the machine learning model.
Therefore, the determination unit 315 first acquires input data for determination from the state determination device 1. As described above, this input data is a set of control parameters related to force and tactile sensation and environmental information acquired when the inspection object 4 to be determined is grasped.
Then, the determination unit 315 makes a determination regarding the damage of the inspection object 4 by using this input data and the machine learning model stored in the learning model storage unit 354. If the machine learning model is used properly according to the type of the inspection object 4, the determination unit 315 naturally performs machine learning according to the type of the inspection object 4 to be determined this time. Judgment is made using the model.

例えば、判定部315は、入力データを機械学習モデルに入力し、その出力を検査対象物4の破損に関する判定の判定結果とする。この場合、判定結果は、検査対象物4が破損しているか否かを示す情報となる。
また、判定部315は、このようにして機械学習モデルを用いた状態判定処理により、検査対象物4の破損に関する判定を行うと、その判定結果をウェアラブル端末2に対して送信する。そして、この判定結果は、ウェアラブル端末2から、ユーザに対して通知される。
For example, the determination unit 315 inputs the input data to the machine learning model, and uses the output as the determination result of the determination regarding the damage of the inspection object 4. In this case, the determination result is information indicating whether or not the inspection object 4 is damaged.
Further, when the determination unit 315 determines the damage of the inspection object 4 by the state determination process using the machine learning model in this way, the determination unit 315 transmits the determination result to the wearable terminal 2. Then, this determination result is notified to the user from the wearable terminal 2.

このように、本実施形態では、状態判定装置1によって検査対象物4を把持した際の力触覚に関する制御パラメータと、温度、湿度及び気圧といった環境情報とに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、本実施形態は、第1実施形態と同様に、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。
すなわち、本実施形態によれば、第1実施形態と同様に、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, in the present embodiment, the inspection object 4 is objectively based on the control parameters related to the force and tactile sensation when the inspection object 4 is gripped by the state determination device 1 and the environmental information such as temperature, humidity and atmospheric pressure. Make a judgment about the damage of. Therefore, in the present embodiment, as in the first embodiment, the work can be visualized by converting the sensation (here, force and tactile sensation) in the work into data. As a result, the inspection accuracy does not depend on the personal feeling (that is, the subjectivity of the operator), and the inspection can be performed with stable accuracy.
That is, according to the present embodiment, as in the first embodiment, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.

[機械学習処理]
本実施形態における、状態判定装置1(すなわち、制御ユニット10aを含む状態判定装置1)、ウェアラブル端末2、及びサーバ装置3aの構成について詳細に説明した。次にこれら各装置を含む状態判定システムSが実行する機械学習処理に含まれる各処理の処理内容について、図19及び図20のフローチャートを参照して説明する。図19は機械学習処理における前処理の流れを説明するフローチャートである。図20は、機械学習処理における構築処理の流れを説明するフローチャートである。
[Machine learning process]
The configurations of the state determination device 1 (that is, the state determination device 1 including the control unit 10a), the wearable terminal 2, and the server device 3a in the present embodiment have been described in detail. Next, the processing contents of each processing included in the machine learning processing executed by the state determination system S including each of these devices will be described with reference to the flowcharts of FIGS. 19 and 20. FIG. 19 is a flowchart illustrating the flow of preprocessing in the machine learning process. FIG. 20 is a flowchart illustrating the flow of the construction process in the machine learning process.

なお、この前処理の後に、把持開始処理が行われてから、さらに構築処理が行われる。この把持開始処理は、図12を参照して説明した第1実施形態の把持開始処理と同様である。したがって、この点について、重複する説明を省略する。また、本実施形態のフローチャート(すなわち、図19~22)において、第1実施形態のフローチャート(すなわち、図11、図12、図13及び図16)と同様の符号番号が付されているステップの処理内容は、第1実施形態における処理内容と同一である。したがって、これらのステップの処理内容の詳細の説明についても適宜省略する。
また、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理は、別途行われているものとする。
After this pretreatment, the gripping start processing is performed, and then the construction processing is further performed. This gripping start processing is the same as the gripping start processing of the first embodiment described with reference to FIG. Therefore, a duplicate description will be omitted on this point. Further, in the flowchart of the present embodiment (that is, FIGS. 19 to 22), the steps having the same reference numerals as those of the flowchart of the first embodiment (that is, FIGS. 11, 12, 13, and 16) are attached. The processing content is the same as the processing content in the first embodiment. Therefore, the detailed description of the processing contents of these steps will be omitted as appropriate.
Further, as a premise of the explanation, it is assumed that the object information management unit 213 and the object information management unit 311 manage the object information separately.

機械学習処理は、ユーザUからの、ウェアラブル端末2に対する機械学習処理の開始操作に伴い実行される。なお、本指示操作も含め、例えば、後述のステップS1やステップS6等における指示操作は、ユーザUによる、音声からなる指示やジェスチャーからなる指示操作に基づいて行われてもよい点については上述した通りである。 The machine learning process is executed with the start operation of the machine learning process for the wearable terminal 2 from the user U. It should be noted that, for example, the instruction operation in step S1 and step S6, which will be described later, including this instruction operation may be performed based on the instruction operation consisting of voice instructions and gestures by the user U, as described above. It's a street.

まず、図19を参照すると、ステップS1において、対象物撮影部212は、ユーザUからの撮影指示操作に基づいて、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした検査対象物画像データを生成する。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3aに対して送信する。
First, referring to FIG. 19, in step S1, the object shooting unit 212 takes a picture using the camera 28 based on the shooting instruction operation from the user U, so that the inspection target 4 is the subject of the inspection. Generate object image data.
In step S2, the object photographing unit 212 transmits the generated image data of the inspection object to the server device 3a.

ステップS3において、識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。
In step S3, the identification unit 312 identifies which type of inspection object 4 the inspection object 4 as the subject is by analyzing the image data of the inspection object.
In step S4, the identification unit 312 transmits the identification result (that is, which type of inspection object 4 is) to the wearable terminal 2.

ステップS5において、通知部214は、識別結果に対応する対象物情報をユーザUに対して通知する。例えば、対象物情報に含まれている、製品名や、外観(すなわち、包装容器)の画像データを表示等することにより通知する。 In step S5, the notification unit 214 notifies the user U of the object information corresponding to the identification result. For example, the product name and the image data of the appearance (that is, the packaging container) included in the object information are displayed for notification.

ステップS6において、通知部214は、サーバ装置3aによる識別結果は正しいか否かを判定する。識別結果が正しい旨の操作を受け付けた場合は、ステップS6においてYesと判定され、処理はステップS7に進む。一方で、識別結果が正しい旨の操作を受け付けない場合は、ステップS6においてNoと判定され、処理はステップS1に戻り、ステップS1の撮影から再度繰り返される。 In step S6, the notification unit 214 determines whether or not the identification result by the server device 3a is correct. If the operation to the effect that the identification result is correct is accepted, it is determined as Yes in step S6, and the process proceeds to step S7. On the other hand, if the operation to the effect that the identification result is correct is not accepted, it is determined as No in step S6, the process returns to step S1, and the shooting of step S1 is repeated again.

ステップS7において、対象物情報管理部213は、識別結果に対応する対象物情報を状態判定装置1に対して送信する。
ステップS51において、処理部117は、教師データ取得のために、後述する各種データを記録する記録モードに設定する。
In step S7, the object information management unit 213 transmits the object information corresponding to the identification result to the state determination device 1.
In step S51, the processing unit 117 is set to a recording mode for recording various data described later in order to acquire teacher data.

ステップS52において、処理部117は、記録モードへ設定した旨をウェアラブル端末2に対して送信する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
In step S52, the processing unit 117 transmits to the wearable terminal 2 that the recording mode has been set.
In step S10, the notification unit 214 notifies the user U of the status indicating the state of the state determination device 1 as "ready".

ステップS11において、通知部214は、識別結果に対応する対象物情報に含まれる検査時に把持機構65において把持すべき位置の画像データをユーザUに対して通知する。このステップS11による通知に伴い、ユーザUは、検査対象物4を把持するために、操作機構55に対する操作を開始する。 In step S11, the notification unit 214 notifies the user U of the image data of the position to be gripped by the gripping mechanism 65 at the time of inspection included in the object information corresponding to the identification result. With the notification in step S11, the user U starts an operation on the operation mechanism 55 in order to grip the inspection object 4.

その後、上述したように、図12を参照して説明した第1実施形態の把持開始処理と同様の、把持開始処理が行われる。そして、この把持開始処理が終了すると、構築処理が開始される。なお、第1実施形態の把持開始処理において判定部114が処理主体となって行っていたステップについては、本実施形態の把持開始処理では処理部117が処理主体となって行うものとする。 After that, as described above, the gripping start processing similar to the gripping start processing of the first embodiment described with reference to FIG. 12 is performed. Then, when the gripping start process is completed, the construction process is started. Regarding the step in which the determination unit 114 is the main processing agent in the gripping start processing of the first embodiment, the processing unit 117 is the main processing agent in the gripping start processing of the present embodiment.

次に、図19を参照すると、ステップS21において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。 Next, referring to FIG. 19, in step S21, the parameter acquisition unit 112 acquires the control parameters related to the current force-tactile sensation calculated in real time.

ステップS22において、処理部117は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。 In step S22, the processing unit 117 determines whether or not the value indicating the force in the control parameter related to the force-tactile sensation acquired in step S21 maintains the first threshold value or more. This determination is a process performed with the intention of confirming that the state in which the inspection object 4 is gripped by the gripping mechanism 65 is properly continued.

力を示す値が第1閾値以上を維持している場合は、ステップS22においてYesと判定され、処理はステップS25に進む。一方で、力を示す値が第1閾値以上を維持していない場合(すなわち、力を示す値が第1閾値未満の場合)は、ステップS22においてNoと判定され、処理はステップS24に進む。 When the value indicating the force maintains the first threshold value or more, it is determined as Yes in step S22, and the process proceeds to step S25. On the other hand, when the value indicating the force does not maintain the first threshold value or more (that is, when the value indicating the force is less than the first threshold value), it is determined as No in step S22, and the process proceeds to step S24.

ステップS23において、処理部117は、検査対象物4の把持の失敗を検出した旨をウェアラブル端末2に対して送信する。 In step S23, the processing unit 117 transmits to the wearable terminal 2 that the failure to grip the inspection object 4 has been detected.

ステップS26において、処理部117は、ステップS21~ステップS27にて用いるカウンタの値を1つカウントアップする。なお、構築処理では、状態判定装置1による判定は行う必要がないため、第1実施形態におけるステップS24及びステップS25は行わない。
ステップS27において、処理部117は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、力触覚に関する制御パラメータを、教師データとして必要なだけ取得する意図で行われる処理である。
In step S26, the processing unit 117 counts up the value of the counter used in steps S21 to S27 by one. In the construction process, since it is not necessary to perform the determination by the state determination device 1, the steps S24 and S25 in the first embodiment are not performed.
In step S27, the processing unit 117 determines whether or not the value of the counter has reached the specified count number. When it is reached, it is determined as Yes in step S27, and the process proceeds to step S28. On the other hand, if it has not been reached, it is determined as No in step S27, the process returns to step S21, and the process is repeated. This is a process performed with the intention of acquiring as many control parameters as necessary as teacher data regarding force and tactile sensation.

ステップS28において、処理部117は、ステップS21を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された力触覚に関する制御パラメータは、その後、機械学習により、機械学習モデルを構築するための教師データの一部として利用される。 In step S28, the processing unit 117 stores the control parameters related to force and tactile sensation acquired by repeating step S21 in the parameter storage unit 151. This stored force-tactile control parameter is then utilized by machine learning as part of the teacher data for building the machine learning model.

ステップS61において、処理部117は、把持をした際(例えば、力触覚に関する制御パラメータが取得完了した時点)に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧を環境情報として取得し、環境情報記憶部154に記憶する。この記憶された環境情報は、その後、機械学習により、機械学習モデルを構築するための教師データの一部として利用される。 In step S61, the processing unit 117 provides environmental information on the ambient temperature, humidity, and atmospheric pressure of the state determination device 1 measured by the sensor 19 when gripping (for example, when the acquisition of control parameters related to force and tactile sensation is completed). And store it in the environmental information storage unit 154. This stored environmental information is then used by machine learning as part of the teacher data for building a machine learning model.

ステップS62において、処理部117は、力触覚に関する制御パラメータと環境情報を取得して、測定完了した旨をウェアラブル端末2に対して送信する。 In step S62, the processing unit 117 acquires control parameters and environmental information related to force and tactile sensation, and transmits to the wearable terminal 2 that the measurement is completed.

ステップS63において、通知部214は、データ取得結果をユーザUに対して通知する。例えば、力触覚に関する制御パラメータに含まれる位置を示す値や、環境情報に含まれる状態判定装置1の周囲の温度、湿度及び気圧の値を、テキスト表示したり音声を出力したりする。これを参照したユーザUは、これら通知された各種情報の内容や、把持機構65が検査対象物4を把持した際の操作機構55に対する反力のフィードバックや、事前にユーザが把握している検査対象物4が破損しているか否かの情報に基づいて、検査対象物4が破損しているか否かを判定する。 In step S63, the notification unit 214 notifies the user U of the data acquisition result. For example, a value indicating a position included in a control parameter related to force and tactile sensation, and a value of the ambient temperature, humidity, and atmospheric pressure of the state determination device 1 included in the environmental information are displayed as text or output by voice. The user U who refers to this includes the contents of the various notified information, feedback of the reaction force against the operation mechanism 55 when the gripping mechanism 65 grips the inspection object 4, and the inspection that the user has grasped in advance. Based on the information on whether or not the object 4 is damaged, it is determined whether or not the inspection object 4 is damaged.

ステップS64において、処理部117は、ステップS63の通知を参照したユーザUから、検査対象物4が破損しているか否かの判定結果を正解情報として受け付ける。この正解情報の受け付けは、例えば、処理部117が、ユーザUから音声からなる指示やジェスチャーからなる指示操作を受け付けることにより実現される。
ステップS65において、処理部117は、ステップS64にて受け付けた正解情報を、状態判定装置1に対して送信する。
In step S64, the processing unit 117 receives the determination result of whether or not the inspection object 4 is damaged from the user U who has referred to the notification in step S63 as correct answer information. The reception of the correct answer information is realized, for example, by the processing unit 117 receiving an instruction operation consisting of a voice or a gesture from the user U.
In step S65, the processing unit 117 transmits the correct answer information received in step S64 to the state determination device 1.

ステップS66において、処理部117は、ウェアラブル端末2から受信した正解情報を正解情報記憶部153に記憶すると共に、この正解情報(すなわち、正解を示すラベル)、ステップS28で記憶した力触覚に関する制御パラメータ、及びステップS61で記憶した環境情報を組として、教師データとしてサーバ装置3aに対して送信する。 In step S66, the processing unit 117 stores the correct answer information received from the wearable terminal 2 in the correct answer information storage unit 153, and the correct answer information (that is, a label indicating the correct answer) and the control parameters related to the force and tactile sensation stored in step S28. , And the environment information stored in step S61 as a set is transmitted to the server device 3a as teacher data.

ステップS67において、機械学習部314は、状態判定装置1から受信した教師データを教師データ記憶部353に記憶する。
ステップS68において、機械学習部314は、ステップS67で記憶した教師データを用いて、所定の条件(例えば、出力が所定以上の高い精度で正解となることや、所定時間学習を繰り返したこと)が満たされるまで機械学習を行うことにより、検査対象物4の破損に関する判定を行うための機械学習モデルを構築する。
ステップS69において、機械学習部314は、ステップS68で構築した機械学習モデルを学習モデル記憶部354に記憶する。
In step S67, the machine learning unit 314 stores the teacher data received from the state determination device 1 in the teacher data storage unit 353.
In step S68, the machine learning unit 314 uses the teacher data stored in step S67 to satisfy a predetermined condition (for example, the output becomes a correct answer with a higher accuracy than a predetermined value or the learning is repeated for a predetermined time). By performing machine learning until it is satisfied, a machine learning model for determining the damage of the inspection object 4 is constructed.
In step S69, the machine learning unit 314 stores the machine learning model constructed in step S68 in the learning model storage unit 354.

なお、本フローチャートでは、教師データを取得する都度、機械学習を行うことを想定しているがこれに限らない。例えば、教師データが複数取得されてある程度蓄積されてから、機械学習を行うようにしてもよい。あるいは、機械学習処理において、機械学習モデルを構築するのではなく、状態判定処理において判定を行う都度、機械学習モデルを構築するようにしてもよい。
また、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにする場合には、ステップS3での識別結果と、ステップS68で構築した機械学習モデルを紐付けて学習モデル記憶部354に記憶しておくようにする。これにより、状態判定処理において、検査対象物4の種類に応じた機械学習モデルを特定することが可能となる。
In this flowchart, it is assumed that machine learning is performed each time teacher data is acquired, but the present invention is not limited to this. For example, machine learning may be performed after a plurality of teacher data are acquired and accumulated to some extent. Alternatively, instead of constructing a machine learning model in the machine learning process, a machine learning model may be constructed each time a determination is made in the state determination process.
Further, when the machine learning model is used properly according to the type of the inspection object 4, the identification result in step S3 and the machine learning model constructed in step S68 are linked to the learning model storage unit 354. Try to remember. This makes it possible to specify a machine learning model according to the type of the inspection object 4 in the state determination process.

ステップS70において、処理部117は、教師データの記憶が完了した旨をウェアラブル端末2に対して送信する。
ステップS71において、通知部214は、教師データの記憶が完了した旨をユーザUに対して通知する。
In step S70, the processing unit 117 transmits to the wearable terminal 2 that the storage of the teacher data is completed.
In step S71, the notification unit 214 notifies the user U that the storage of the teacher data is completed.

ステップS72において、通知部214は、引き続き別の検査対象物4の状態を記憶するか否か選択するよう、ユーザUに通知する。この通知に応じたユーザUから「別の検査対象物4の状態を記憶する」との回答を受け付けた場合は、ステップS72においてYesと判定され、処理は図19のステップS1に戻り繰り返される。一方で、ユーザUから「別の検査対象物4の状態を記憶しない」との回答を受け付けた場合は、ステップS72においてNoと判定され、本機械学習処理は終了する。なお、これらの回答の受け付けは、例えば、処理部117が、ユーザUから音声からなる指示やジェスチャーからなる指示操作を受け付けることにより実現される。 In step S72, the notification unit 214 notifies the user U to select whether or not to continuously store the state of another inspection object 4. When the user U who responds to this notification receives the reply "remember the state of another inspection object 4", it is determined as Yes in step S72, and the process returns to step S1 in FIG. 19 and is repeated. On the other hand, when the reply "The state of another inspection object 4 is not stored" is received from the user U, it is determined as No in step S72, and the machine learning process ends. It should be noted that the reception of these answers is realized, for example, by the processing unit 117 receiving an instruction operation consisting of a voice or a gesture from the user U.

[状態判定処理]
次に、状態判定装置1、ウェアラブル端末2、及びサーバ装置3aを含む状態判定システムSが実行する状態判定処理に含まれる各処理の処理内容について、図21及び図22のフローチャートを参照して説明する。図21は状態判定処理における前処理の流れを説明するフローチャートである。図22は、状態判定処理における判定処理の流れを説明するフローチャートである。
[Status judgment process]
Next, the processing contents of each process included in the state determination process executed by the state determination system S including the state determination device 1, the wearable terminal 2, and the server device 3a will be described with reference to the flowcharts of FIGS. 21 and 22. do. FIG. 21 is a flowchart illustrating a flow of preprocessing in the state determination process. FIG. 22 is a flowchart illustrating a flow of the determination process in the state determination process.

なお、第1実施形態の状態判定処理と同様に、この前処理の後に、把持開始処理が行われてから、さらに構築処理が行われ、最後に把持終了処理が行われるれる。この把持開始処理は、図12を参照して説明した第1実施形態の把持開始処理と同様である。また、この把持終了処理は、図16を参照して説明した第1実施形態の把持終了処理と同様である。したがって、これらの点について、重複する説明を省略する。また、上述したように、本実施形態のフローチャート(すなわち、図19~22)において、第1実施形態のフローチャート(すなわち、図11、図12、図13及び図16)と同様の符号番号が付されているステップの処理内容は、第1実施形態における処理内容と同一である。したがって、これらのステップの処理内容の詳細の説明についても適宜省略する。
また、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理は、別途行われているものとする。
Similar to the state determination process of the first embodiment, after this preprocessing, the gripping start process is performed, then the construction process is further performed, and finally the gripping end process is performed. This gripping start processing is the same as the gripping start processing of the first embodiment described with reference to FIG. Further, this gripping end process is the same as the gripping end process of the first embodiment described with reference to FIG. Therefore, duplicate description of these points will be omitted. Further, as described above, in the flowchart of the present embodiment (that is, FIGS. 19 to 22), the same reference numerals as those of the flowchart of the first embodiment (that is, FIGS. 11, 12, 13, 13 and 16) are assigned. The processing content of the step is the same as the processing content in the first embodiment. Therefore, the detailed description of the processing contents of these steps will be omitted as appropriate.
Further, as a premise of the explanation, it is assumed that the object information management unit 213 and the object information management unit 311 manage the object information separately.

まず、図21を参照すると、ステップS1において、対象物撮影部212は、ユーザUからの撮影指示操作に基づいて、カメラ28を用いた撮影を行うことにより、検査対象物4を被写体とした検査対象物画像データを生成する。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3aに対して送信する。
First, referring to FIG. 21, in step S1, the object shooting unit 212 takes a picture using the camera 28 based on the shooting instruction operation from the user U, so that the inspection target 4 is the subject of the inspection. Generate object image data.
In step S2, the object photographing unit 212 transmits the generated image data of the inspection object to the server device 3a.

ステップS3において、識別部312は、検査対象物画像データを画像解析することにより、被写体となっている検査対象物4が、何れの種類の検査対象物4であるかを識別する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。
In step S3, the identification unit 312 identifies which type of inspection object 4 the inspection object 4 as the subject is by analyzing the image data of the inspection object.
In step S4, the identification unit 312 transmits the identification result (that is, which type of inspection object 4 is) to the wearable terminal 2.

ステップS5において、通知部214は、識別結果に対応する対象物情報をユーザUに対して通知する。例えば、対象物情報に含まれている、製品名や、外観(すなわち、包装容器)の画像データを表示等することにより通知する。 In step S5, the notification unit 214 notifies the user U of the object information corresponding to the identification result. For example, the product name and the image data of the appearance (that is, the packaging container) included in the object information are displayed for notification.

ステップS6において、通知部214は、サーバ装置3aによる識別結果は正しいか否かを判定する。識別結果が正しい旨の操作を受け付けた場合は、ステップS6においてYesと判定され、処理はステップS7に進む。一方で、識別結果が正しい旨の操作を受け付けない場合は、ステップS6においてNoと判定され、処理はステップS1に戻り、ステップS1の撮影から再度繰り返される。 In step S6, the notification unit 214 determines whether or not the identification result by the server device 3a is correct. If the operation to the effect that the identification result is correct is accepted, it is determined as Yes in step S6, and the process proceeds to step S7. On the other hand, if the operation to the effect that the identification result is correct is not accepted, it is determined as No in step S6, the process returns to step S1, and the shooting of step S1 is repeated again.

ステップS81において、対象物情報管理部213は、識別結果に対応する対象物情報をサーバ装置3aに対して送信する。
ステップS82において、判定部315は、学習モデル記憶部354が記憶する機械学習モデルを読み出すことにより設定する。なお、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにする場合には、ウェアラブル端末2から受信した対象物情報に基づいて、この対象物情報の種類(すなわち、今回判定対象とする検査対象物4の種類)に対応する機械学習モデルを学習モデル記憶部354から読み出す。
In step S81, the object information management unit 213 transmits the object information corresponding to the identification result to the server device 3a.
In step S82, the determination unit 315 is set by reading out the machine learning model stored in the learning model storage unit 354. When the machine learning model is used properly according to the type of the inspection object 4, the type of the object information (that is, the determination target this time) is based on the object information received from the wearable terminal 2. The machine learning model corresponding to the type of inspection object 4) is read from the learning model storage unit 354.

ステップS83において、判定部315は、機械学習モデルを設定した旨をウェアラブル端末2に対して送信する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
In step S83, the determination unit 315 transmits to the wearable terminal 2 that the machine learning model has been set.
In step S10, the notification unit 214 notifies the user U of the status indicating the state of the state determination device 1 as "ready".

ステップS11において、通知部214は、識別結果に対応する対象物情報に含まれる検査時に把持機構65において把持すべき位置の画像データをユーザUに対して通知する。このステップS11による通知に伴い、ユーザUは、検査対象物4を把持するために、操作機構55に対する操作を開始する。 In step S11, the notification unit 214 notifies the user U of the image data of the position to be gripped by the gripping mechanism 65 at the time of inspection included in the object information corresponding to the identification result. With the notification in step S11, the user U starts an operation on the operation mechanism 55 in order to grip the inspection object 4.

その後、上述したように、図12を参照して説明した第1実施形態の把持開始処理と同様の、把持開始処理が行われる。そして、この把持開始処理が終了すると、構築処理が開始される。なお、第1実施形態の把持開始処理において判定部114が処理主体となって行っていたステップについては、本実施形態の把持開始処理では処理部117が処理主体となって行うものとする。 After that, as described above, the gripping start processing similar to the gripping start processing of the first embodiment described with reference to FIG. 12 is performed. Then, when the gripping start process is completed, the construction process is started. Regarding the step in which the determination unit 114 is the main processing agent in the gripping start processing of the first embodiment, the processing unit 117 is the main processing agent in the gripping start processing of the present embodiment.

次に、図22を参照すると、ステップS21において、パラメータ取得部112は、リアルタイムに算出した現時点での力触覚に関する制御パラメータを取得する。 Next, referring to FIG. 22, in step S21, the parameter acquisition unit 112 acquires the control parameters related to the current force-tactile sensation calculated in real time.

ステップS22において、処理部117は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。 In step S22, the processing unit 117 determines whether or not the value indicating the force in the control parameter related to the force-tactile sensation acquired in step S21 maintains the first threshold value or more. This determination is a process performed with the intention of confirming that the state in which the inspection object 4 is gripped by the gripping mechanism 65 is properly continued.

力を示す値が第1閾値以上を維持している場合は、ステップS22においてYesと判定され、処理はステップS25に進む。一方で、力を示す値が第1閾値以上を維持していない場合(すなわち、力を示す値が第1閾値未満の場合)は、ステップS22においてNoと判定され、処理はステップS24に進む。 When the value indicating the force maintains the first threshold value or more, it is determined as Yes in step S22, and the process proceeds to step S25. On the other hand, when the value indicating the force does not maintain the first threshold value or more (that is, when the value indicating the force is less than the first threshold value), it is determined as No in step S22, and the process proceeds to step S24.

ステップS23において、処理部117は、検査対象物4の把持の失敗を検出した旨をウェアラブル端末2に対して送信する。 In step S23, the processing unit 117 transmits to the wearable terminal 2 that the failure to grip the inspection object 4 has been detected.

ステップS24において、通知部214は、状態判定装置1の状態を示すスターテスを「エラー及びリトライ」として、ユーザUに対して通知する。そして、処理は図21のステップS10に戻り、繰り返される。 In step S24, the notification unit 214 notifies the user U of the start that indicates the state of the state determination device 1 as an "error and retry". Then, the process returns to step S10 in FIG. 21 and is repeated.

ステップS26において、処理部117は、ステップS21~ステップS27にて用いるカウンタの値を1つカウントアップする。なお、構築処理では、状態判定装置1による判定は行う必要がないため、第1実施形態におけるステップS25は行わない。
ステップS27において、処理部117は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、力触覚に関する制御パラメータを、入力データとして必要なだけ取得する意図で行われる処理である。
In step S26, the processing unit 117 counts up the value of the counter used in steps S21 to S27 by one. In the construction process, it is not necessary to perform the determination by the state determination device 1, so the step S25 in the first embodiment is not performed.
In step S27, the processing unit 117 determines whether or not the value of the counter has reached the specified count number. When it is reached, it is determined as Yes in step S27, and the process proceeds to step S28. On the other hand, if it has not been reached, it is determined as No in step S27, the process returns to step S21, and the process is repeated. This is a process performed with the intention of acquiring as many control parameters as input data regarding force and tactile sensation.

ステップS28において、処理部117は、ステップS21を繰り返すことにより取得した、力触覚に関する制御パラメータをパラメータ記憶部151に記憶する。この記憶された力触覚に関する制御パラメータは、その後、機械学習モデルを用いて破損に関する判定を行うための入力データの一部として利用される。 In step S28, the processing unit 117 stores the control parameters related to force and tactile sensation acquired by repeating step S21 in the parameter storage unit 151. This stored force-tactile control parameter is then utilized as part of the input data for making a damage determination using a machine learning model.

ステップS91において、処理部117は、把持をした際(例えば、力触覚に関する制御パラメータが取得完了した時点)に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧を環境情報として取得し、環境情報記憶部154に記憶する。この記憶された環境情報は、その後、機械学習モデルを用いて破損に関する判定を行うための入力データの一部として利用される。 In step S91, the processing unit 117 provides environmental information on the ambient temperature, humidity, and atmospheric pressure of the state determination device 1 measured by the sensor 19 when gripping (for example, when the acquisition of control parameters related to force and tactile sensation is completed). And store it in the environmental information storage unit 154. This stored environmental information is then used as part of the input data for making a determination about damage using a machine learning model.

ステップS92において、処理部117は、ステップS28で記憶した力触覚に関する制御パラメータ、及びステップS91で記憶した環境情報を組として、入力データとしてサーバ装置3aに対して送信する。 In step S92, the processing unit 117 transmits the control parameters related to the force and tactile sensation stored in step S28 and the environmental information stored in step S91 as a set to the server device 3a as input data.

ステップS93において、判定部315は、状態判定装置1から受信した入力データを、ステップS82で設定した機械学習モデルに入力し、その出力を検査対象物4の破損に関する判定の判定結果とする。この場合、判定結果は、検査対象物4が破損しているか否かを示す情報となる。 In step S93, the determination unit 315 inputs the input data received from the state determination device 1 to the machine learning model set in step S82, and uses the output as the determination result of the determination regarding the damage of the inspection object 4. In this case, the determination result is information indicating whether or not the inspection object 4 is damaged.

ステップS94において、判定部315は、検査対象物4が破損しているか否かの判定結果をウェアラブル端末2に対して送信する。ここで、送信される判定結果は「検査対象物4が破損している。」というものか、「検査対象物4が破損していない。」というものの何れかになる。 In step S94, the determination unit 315 transmits the determination result of whether or not the inspection object 4 is damaged to the wearable terminal 2. Here, the determination result to be transmitted is either "the inspection object 4 is damaged" or "the inspection object 4 is not damaged".

ステップS30において、通知部214は、判定結果をユーザUに対して通知する。例えば、判定結果である「検査対象物4が破損している。」という旨、又は「検査対象物4が破損していない。」という旨の何れかを示すテキストを表示したり音声を出力したりする。
ステップS31において、通知部214は、作業情報をユーザUに対して通知する。例えば、この作業情報は、判定結果に応じたものとし、ユーザUが次に行うべき作業を具体的に指示する内容とする。
In step S30, the notification unit 214 notifies the user U of the determination result. For example, a text indicating either "the inspection object 4 is damaged" or "the inspection object 4 is not damaged", which is the determination result, is displayed or a voice is output. Or something.
In step S31, the notification unit 214 notifies the user U of the work information. For example, this work information is based on the determination result, and the content is such that the user U specifically instructs the work to be performed next.

これらステップS30及びステップS31における通知の具体例について、図14及び図15を参照して説明した第1実施形態の通知の具体例と同様である。
ただし、第1実施形態では、力触覚に関する制御パラメータである位置を示す値(図中では「測定値」)と、第2閾値(図中では「閾値」)との関係を示すテキストが表示されていた。第2実施形態では、これに代えて、力触覚に関する制御パラメータである位置を示す値(図中では「測定値」)と、機械学習モデルによる判定基準等となる特徴量の値との関係を示すテキストを表示するようにしてもよい。
また、他にも、例えば、第2実施形態では、環境情報に含まれる温度等の値を示すテキストを表示するようにしてもよい。
The specific examples of the notifications in steps S30 and S31 are the same as the specific examples of the notifications of the first embodiment described with reference to FIGS. 14 and 15.
However, in the first embodiment, a text showing the relationship between the value indicating the position (“measured value” in the figure), which is a control parameter related to force and tactile sensation, and the second threshold value (“threshold value” in the figure) is displayed. Was there. In the second embodiment, instead of this, the relationship between the value indicating the position (“measured value” in the figure), which is a control parameter related to force and tactile sensation, and the value of the feature amount, which is a judgment standard by the machine learning model, is established. You may want to display the text to indicate.
In addition, for example, in the second embodiment, a text indicating a value such as temperature included in the environmental information may be displayed.

その後、上述したように、図16を参照して説明した第1実施形態の把持終了処理と同様の、把持終了処理が行われる。そして、この把持終了処理が終了すると、本状態判定処理は終了する。なお、第1実施形態の把持終了処理において判定部114が処理主体となって行っていたステップについては、本実施形態の把持終了処理では処理部117が処理主体となって行うものとする。 After that, as described above, the gripping end processing similar to the gripping end processing of the first embodiment described with reference to FIG. 16 is performed. Then, when the gripping end process is completed, the present state determination process is completed. Regarding the step in which the determination unit 114 is the main processing agent in the gripping end processing of the first embodiment, the processing unit 117 is the main processing agent in the gripping end processing of the present embodiment.

以上説明した、機械学習処理及び状態判定処理によれば、状態判定装置1によって検査対象物4を把持した際の力触覚に関する制御パラメータと、温度、湿度及び気圧といった環境情報とに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、本実施形態は、第1実施形態と同様に、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。
すなわち、本実施形態の機械学習処理及び状態判定処理によれば、よれば、第1実施形態の状態判定処理と同様に、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
According to the machine learning process and the state determination process described above, objectively based on the control parameters related to the force and tactile sensation when the inspection object 4 is gripped by the state determination device 1 and the environmental information such as temperature, humidity and atmospheric pressure. It is determined that the inspection object 4 is damaged. Therefore, in the present embodiment, as in the first embodiment, the work can be visualized by converting the sensation (here, force and tactile sensation) in the work into data. As a result, the inspection accuracy does not depend on the personal feeling (that is, the subjectivity of the operator), and the inspection can be performed with stable accuracy.
That is, according to the machine learning process and the state determination process of the present embodiment, as in the state determination process of the first embodiment, stable accuracy based on an objective index is used when inspecting for damage. It is possible to realize the inspection in.

[変形例]
以上、本発明の実施形態について説明したが、この実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明は、本発明の要旨を逸脱しない範囲で、その他の様々な実施形態を取ることが可能である共に、省略及び置換等種々の変形を行うことができる。この場合に、これら実施形態及びその変形は、本明細書等に記載された発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
一例として、以上説明した本発明の実施形態を、以下のようにして変形してもよい。
[Modification example]
Although the embodiment of the present invention has been described above, this embodiment is merely an example and does not limit the technical scope of the present invention. The present invention can take various other embodiments without departing from the gist of the present invention, and can be modified in various ways such as omission and substitution. In this case, these embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
As an example, the embodiment of the present invention described above may be modified as follows.

上述の第1実施形態や第2実施形態では、単一のサーバ装置3(あるいはサーバ装置3a)が、対象物情報の管理、画像解析による検査対象物4の識別、及び製品情報の管理等を行っていた。これに限らず、例えば、これら複数の機能を、複数のサーバ装置に分散して実現するようにしてもよい。また、例えば、状態判定装置1とウェアラブル端末2とを単一の装置として実現してもよい。 In the first embodiment and the second embodiment described above, a single server device 3 (or server device 3a) manages object information, identifies the inspection target 4 by image analysis, manages product information, and the like. I was going. Not limited to this, for example, these plurality of functions may be distributed and realized in a plurality of server devices. Further, for example, the state determination device 1 and the wearable terminal 2 may be realized as a single device.

上述の第1実施形態と第2実施形態の一部又は全部を組み合わせるようにしてもよい。例えば、機械学習処理を行うための教師データが蓄積されて、機械学習モデルを構築するまでは、第1実施形態のようにして第2閾値を用いて状態判定処理を行う。そして、機械学習モデルを構築した後は、第2実施形態のようにして機械学習モデルを用いて状態判定処理を行う、というように組み合わせるようにしてもよい。他にも、例えば、ユーザの選択操作や、判定対象とする検査対象物4の種類等に応じて、第1実施形態のようにして第2閾値を用いて状態判定処理を行うのか、それとも第2実施形態のようにして機械学習モデルを用いて状態判定処理を行うのかを選択できるようにしてもよい。 A part or all of the above-mentioned first embodiment and the second embodiment may be combined. For example, until the teacher data for performing the machine learning process is accumulated and the machine learning model is constructed, the state determination process is performed using the second threshold value as in the first embodiment. Then, after the machine learning model is constructed, the state determination process may be performed using the machine learning model as in the second embodiment. In addition, for example, whether the state determination process is performed using the second threshold value as in the first embodiment according to the user's selection operation, the type of the inspection object 4 to be determined, or the like. 2 It may be possible to select whether to perform the state determination process using the machine learning model as in the embodiment.

上述の第1実施形態では、力を示す値が第1閾値を維持している状態で、且つ、位置を示す値が第2閾値未満とならないか、に基づいて検査対象物4の破損に関する判定を行っていた。すなわち、力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて判定を行っていた。これに限らず、例えば、位置を一定とした状態で、力の変化に基づいて判定を行ってもよい。あるいは、力の変化と位置の変化の双方に基づいて判定を行ってもよい。すなわち、力触覚に関する制御パラメータに基づいて、把持におけるインピーダンスを適切に特定し、安定した精度で判定をすることが可能であれば、判定を行う基準を適宜変更してもよい。 In the above-mentioned first embodiment, the determination regarding the damage of the inspection object 4 is made based on whether the value indicating the force maintains the first threshold value and the value indicating the position is not less than the second threshold value. Was going. That is, the determination was made based on the change in position (that is, the amount of movement) while the force was constant. Not limited to this, for example, a determination may be made based on a change in force while the position is constant. Alternatively, the determination may be made based on both the change in force and the change in position. That is, if it is possible to appropriately specify the impedance in gripping based on the control parameters related to force and tactile sensation and make a judgment with stable accuracy, the criteria for making the judgment may be appropriately changed.

上述の第2実施形態では、力を示す値が第1閾値を維持している状態で、且つ、位置を示す値を取得して、この位置を示す値を力触覚に関する制御パラメータとしていた。そして、この力触覚に関する制御パラメータ(すなわち、位置を示す値)を教師データや入力データの一部として、機械学習モデルを構築したり、検査対象物4の破損に関する判定を行ったりしていた。すなわち、力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて判定を行っていた。これに限らず、例えば、位置を一定とした状態で、力の変化に基づいて判定を行ってもよい。あるいは、力の変化と位置の変化の双方に基づいて判定を行ってもよい。すなわち、力触覚に関する制御パラメータに基づいて、把持におけるインピーダンスを適切に特定し、安定した精度で判定をすることが可能であれば、判定を行う基準を適宜変更してもよい。 In the above-mentioned second embodiment, the value indicating the force is maintained at the first threshold value, the value indicating the position is acquired, and the value indicating this position is used as the control parameter related to the force-tactile sensation. Then, using the control parameter (that is, the value indicating the position) related to the force-tactile sensation as a part of the teacher data and the input data, a machine learning model is constructed and a determination regarding the damage of the inspection object 4 is performed. That is, the determination was made based on the change in position (that is, the amount of movement) while the force was constant. Not limited to this, for example, a determination may be made based on a change in force while the position is constant. Alternatively, the determination may be made based on both the change in force and the change in position. That is, if it is possible to appropriately specify the impedance in gripping based on the control parameters related to force and tactile sensation and make a judgment with stable accuracy, the criteria for making the judgment may be appropriately changed.

上述の第2実施形態では、サーバ装置3aに学習モデル記憶部354を設けて機械学習モデルを記憶すると共に、サーバ装置3aの判定部315が機械学習モデルを用いて、破損に関する判定を行っていた。これに限らず、例えば、状態判定装置1に学習モデル記憶部354同様の記憶部を設けて機械学習モデルを記憶すると共に、状態判定装置1に判定部315同様の機能ブロックを設けて、この状態判定装置1の判定部が機械学習モデルを用いて、破損に関する判定を行うようにしてもよい。あるいは、例えば、ウェアラブル端末20に学習モデル記憶部354同様の記憶部を設けて機械学習モデルを記憶すると共に、ウェアラブル端末2に判定部315同様の機能ブロックを設けて、このウェアラブル端末2の判定部が機械学習モデルを用いて、破損に関する判定を行うようにしてもよい。
これにより、例えば、状態判定処理時にサーバ装置3aとの通信が困難な環境下であっても、機械学習モデルを用いて、破損に関する判定を行うことが可能となる。
さらに、状態判定装置1やウェアラブル端末2において演算能力を十分に確保することができたり、少ない演算量で機械学習モデルを構築できたりする機械学習の方法を利用する場合には、状態判定装置1やウェアラブル端末2に機械学習部314同様の機械学習部を設けて、機械学習モデルの構築についても、この機械学習部が行うようにしてもよい。
In the above-mentioned second embodiment, the learning model storage unit 354 is provided in the server device 3a to store the machine learning model, and the determination unit 315 of the server device 3a uses the machine learning model to determine the damage. .. Not limited to this, for example, the state determination device 1 is provided with a storage unit similar to the learning model storage unit 354 to store the machine learning model, and the state determination device 1 is provided with a functional block similar to the determination unit 315 to be in this state. The determination unit of the determination device 1 may use the machine learning model to determine the damage. Alternatively, for example, the wearable terminal 20 is provided with a storage unit similar to the learning model storage unit 354 to store the machine learning model, and the wearable terminal 2 is provided with a functional block similar to the determination unit 315 to provide the determination unit of the wearable terminal 2. May use a machine learning model to make a determination about damage.
As a result, for example, even in an environment where communication with the server device 3a is difficult during the state determination process, it is possible to determine the damage by using the machine learning model.
Further, when using a machine learning method that can secure sufficient computing power in the state determination device 1 or the wearable terminal 2 or can build a machine learning model with a small amount of computation, the state determination device 1 A machine learning unit similar to the machine learning unit 314 may be provided on the wearable terminal 2 or the wearable terminal 2 so that the machine learning unit can also construct the machine learning model.

上述の第2実施形態では、環境情報を機械学習処理における教師データの一部や、状態判定処理における入力データの一部として利用していた。これに限らず、例えば、環境情報の利用は省略するようにしてもよい。あるいは、環境情報以外の、把持時における力触覚に関する制御パラメータに影響を及ぼす事象を示す情報を、利用するようにしてもよい。 In the above-mentioned second embodiment, the environmental information is used as a part of the teacher data in the machine learning process and a part of the input data in the state determination process. Not limited to this, for example, the use of environmental information may be omitted. Alternatively, information other than environmental information that indicates an event that affects control parameters related to force and tactile sensation during grasping may be used.

以上のように、本発明の実施形態に係る状態判定システムSは、動作制御部111と、パラメータ取得部112と、判定部114と、通知部214と、を備える。
動作制御部111は、ユーザの操作に基づいて状態判定装置1の動作を制御することにより、状態判定装置1に検査対象物4を把持させる。
パラメータ取得部112は、動作制御部111による状態判定装置1の制御で用いた、力触覚に関する制御パラメータを取得する。
判定部114は、パラメータ取得部112が取得した力触覚に関する制御パラメータに基づいて、検査対象物4の破損に関する判定をする。
通知部214は、判定部114の判定結果をユーザに対して通知する。
このように、状態判定システムSは、検査対象物4を把持機構で把持した際の力触覚に関する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, the state determination system S according to the embodiment of the present invention includes an operation control unit 111, a parameter acquisition unit 112, a determination unit 114, and a notification unit 214.
The operation control unit 111 controls the operation of the state determination device 1 based on the operation of the user, so that the state determination device 1 grips the inspection object 4.
The parameter acquisition unit 112 acquires control parameters related to force and tactile sensation used in the control of the state determination device 1 by the operation control unit 111.
The determination unit 114 determines the damage of the inspection object 4 based on the control parameters related to the force and tactile sensation acquired by the parameter acquisition unit 112.
The notification unit 214 notifies the user of the determination result of the determination unit 114.
As described above, the state determination system S objectively determines the damage of the inspection object 4 based on the control parameters related to the force and tactile sensation when the inspection object 4 is gripped by the gripping mechanism. Therefore, the state determination system S can visualize the work by converting the sensation in the work (here, the force and tactile sensation) into data. As a result, the inspection accuracy does not depend on the personal feeling (that is, the subjectivity of the operator), and the inspection can be performed with stable accuracy. Further, since it has such a configuration, the state determination system S can be easily realized without requiring large-scale equipment such as various sensors and a conveyor for inspection. Therefore, it is possible to apply various products to inspections performed at distribution centers, retail stores, etc. for finding damage during transportation.
That is, according to the state determination system S, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.

検査対象物4は、包装容器であり、
判定部114は、包装容器の破損により、検査対象物4である包装容器によって包装されている内容物が流出しているか否かを判定する。
これにより、包装容器の破損により、空気漏れ等が発生していないか否かを検査することができる。
The inspection object 4 is a packaging container.
The determination unit 114 determines whether or not the contents packaged by the packaging container, which is the inspection target 4, have leaked due to the damage of the packaging container.
This makes it possible to inspect whether or not air leakage or the like has occurred due to damage to the packaging container.

状態判定装置1は、ユーザの操作を受け付けるマスタ装置と、検査対象物4の把持を実行するスレーブ装置とを含んでいる。
動作制御部111は、マスタ装置とスレーブ装置との間で力触覚に関する制御パラメータを伝達することにより、状態判定装置1の動作を制御する。
これにより、マスタ装置の動作とスレーブ装置の動作とを制御する際の、力触覚に関する制御パラメータを利用して検査を行うことができる。
The state determination device 1 includes a master device that accepts a user's operation and a slave device that executes gripping of the inspection object 4.
The motion control unit 111 controls the motion of the state determination device 1 by transmitting control parameters related to force and tactile sensation between the master device and the slave device.
Thereby, the inspection can be performed by using the control parameters related to the force-tactile sensation when controlling the operation of the master device and the operation of the slave device.

状態判定システムSは、識別部312をさらに備える。
識別部312は、検査対象物4を認識することにより、該検査対象物4の種類を識別する。
判定部114は、識別部312が識別した検査対象物4の種類に対応する基準で、検査対象物4の破損に関する判定をする。
これにより、様々な種類の検査対象物4それぞれに対応した、適切な基準により検査を行うことができる。
The state determination system S further includes an identification unit 312.
The identification unit 312 identifies the type of the inspection object 4 by recognizing the inspection object 4.
The determination unit 114 determines the damage of the inspection object 4 based on the criteria corresponding to the type of the inspection object 4 identified by the identification unit 312.
As a result, the inspection can be performed according to an appropriate standard corresponding to each of the various types of inspection objects 4.

識別部312は、ユーザが装着する撮影装置により撮影された検査対象物4の画像に基づいて、該検査対象物4の種類を識別する。
これにより、画像識別によって、より簡便に、検査対象物4の種類を識別することができる。
The identification unit 312 identifies the type of the inspection object 4 based on the image of the inspection object 4 taken by the imaging device worn by the user.
Thereby, the type of the inspection object 4 can be more easily identified by the image identification.

通知部214は、ユーザが装着する通知装置から、判定部114の判定結果と共に、あるいは該判定結果に代えて、該判定結果に基づいたユーザに対する作業指示を通知する。
これにより、ユーザに対して、破損の有無等に応じた適切な作業指示を通知することができる。
The notification unit 214 notifies the user of work instructions based on the determination result together with the determination result of the determination unit 114 or in place of the determination result from the notification device worn by the user.
As a result, it is possible to notify the user of an appropriate work instruction according to the presence or absence of damage or the like.

判定部114は、力触覚に関する制御パラメータに基づいて検出される、状態判定装置1が備える所定部位の位置に基づいて、検査対象物4の破損に関する判定をする。
これにより、位置という明確な基準に基づいて、検査を行うことができる。
The determination unit 114 determines the damage of the inspection object 4 based on the position of the predetermined portion included in the state determination device 1 detected based on the control parameters related to the force and tactile sensation.
This allows the inspection to be performed based on a clear criterion of position.

状態判定システムSは、作業情報管理部215及び作業情報管理部313をさらに備える。
作業情報管理部215及び作業情報管理部313は、ユーザによる状態判定装置1を用いた作業の結果を管理する。
これにより、検査を行うのみならず、作業履歴の管理等を行うことができる。
The state determination system S further includes a work information management unit 215 and a work information management unit 313.
The work information management unit 215 and the work information management unit 313 manage the results of work by the user using the state determination device 1.
As a result, not only the inspection but also the management of the work history can be performed.

動作制御部111は、力触覚に関する制御パラメータを調整して状態判定装置1の把持を抑制することにより、該把持によって検査対象物4が破損することを防止する。
これにより、検査中に誤って検査対象物4を破損させてしまうような事態を防止することができる。
The motion control unit 111 adjusts the control parameters related to the force and tactile sensation to suppress the gripping of the state determination device 1 to prevent the inspection object 4 from being damaged by the gripping.
This makes it possible to prevent a situation in which the inspection object 4 is accidentally damaged during the inspection.

動作制御部111は、前記ユーザによる操作に基づいて状態判定装置1を制御するために、位置センサと、力・速度割当変換ブロックFT理想力源ブロックFC及び理想速度(位置)源ブロックPCと、逆変換ブロックIFTと、を備える。
位置センサは、状態判定装置1の動作に伴う、位置に関する情報を検出する。
力・速度割当変換ブロックFTは、位置に関する情報に対応する所定の物理量の情報と、制御の基準となる情報とに基づいて、制御エネルギーを所定の物理量のエネルギーに対して割り当てる変換を行う。
理想力源ブロックFC及び理想速度(位置)源ブロックPCは、力・速度割当変換ブロックFTによって割り当てられた所定の物理量のエネルギーに基づいて、所定の物理量の制御量を算出する。
逆変換ブロックIFTは、理想力源ブロックFC及び理想速度(位置)源ブロックPCが算出した制御量に基づく出力を状態判定装置1に戻すべく、該制御量を逆変換して、状態判定装置1への入力を決定する。
これにより、各ユーザが力触覚を伴う動作を行う場合に、力触覚に関する制御パラメータに基づいて、状態判定装置1の動作を制御することができる。
The operation control unit 111 includes a position sensor, a force / speed allocation conversion block FT ideal force source block FC, and an ideal speed (position) source block PC in order to control the state determination device 1 based on the operation by the user. It includes an inverse conversion block IFT and.
The position sensor detects information about the position accompanying the operation of the state determination device 1.
The force / velocity allocation conversion block FT performs conversion to allocate control energy to energy of a predetermined physical quantity based on information of a predetermined physical quantity corresponding to information regarding a position and information as a reference for control.
The ideal force source block FC and the ideal velocity (position) source block PC calculate a control amount of a predetermined physical quantity based on the energy of a predetermined physical quantity allocated by the force / velocity allocation conversion conversion block FT.
The inverse conversion block IFT reversely converts the control amount to return the output based on the control amount calculated by the ideal force source block FC and the ideal speed (position) source block PC to the state determination device 1, and the state determination device 1 Determine the input to.
As a result, when each user performs an operation accompanied by a force-tactile sensation, the operation of the state determination device 1 can be controlled based on the control parameters related to the force-tactile sensation.

以上のように、本発明の実施形態に係る状態判定システムSは、マスタ側アクチュエータ52と、スレーブ側アクチュエータ62と、動作制御部111と、判定部315又は判定部114と、通知部214と、を備える。
マスタ側アクチュエータ52は、操作機構55を動作させる。
スレーブ側アクチュエータ62は、把持機構65を動作させる。
動作制御部111は、操作機構55に入力されたユーザの操作に応じてスレーブ側アクチュエータ62を駆動することで、把持機構65が検査対象物4を把持する動作を制御すると共に、把持機構65に入力された検査対象物4からの反力に応じてマスタ側アクチュエータ52を駆動することで、操作機構55が反力をユーザに伝達する動作を制御する、という動作制御を行う。
判定部315又は判定部114は、動作制御部111が動作制御において用いた制御パラメータに基づいて、検査対象物4の破損に関する判定をする。
通知部214は、判定部315の判定結果をユーザに対して通知する。
このように、状態判定システムSは、検査対象物4を把持機構で把持した際の、ユーザの操作や検査対象物4からの反力(すなわち力触覚)に対応する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
As described above, the state determination system S according to the embodiment of the present invention includes the master side actuator 52, the slave side actuator 62, the operation control unit 111, the determination unit 315 or the determination unit 114, and the notification unit 214. To prepare for.
The master side actuator 52 operates the operation mechanism 55.
The slave side actuator 62 operates the gripping mechanism 65.
The motion control unit 111 controls the operation of the gripping mechanism 65 to grip the inspection object 4 by driving the slave side actuator 62 in response to the user's operation input to the operating mechanism 55, and the gripping mechanism 65 controls the motion of gripping the inspection object 4. By driving the actuator 52 on the master side in response to the input reaction force from the inspection object 4, the operation mechanism 55 controls the operation of transmitting the reaction force to the user, that is, the operation control is performed.
The determination unit 315 or the determination unit 114 determines whether the inspection object 4 is damaged based on the control parameters used by the operation control unit 111 in the operation control.
The notification unit 214 notifies the user of the determination result of the determination unit 315.
As described above, the state determination system S is objectively based on the control parameters corresponding to the user's operation and the reaction force (that is, force tactile sensation) from the inspection object 4 when the inspection object 4 is gripped by the gripping mechanism. It is determined that the inspection object 4 is damaged. Therefore, the state determination system S can visualize the work by converting the sensation in the work (here, the force and tactile sensation) into data. As a result, the inspection accuracy does not depend on the personal feeling (that is, the subjectivity of the operator), and the inspection can be performed with stable accuracy. Further, since it has such a configuration, the state determination system S can be easily realized without requiring large-scale equipment such as various sensors and a conveyor for inspection. Therefore, it is possible to apply various products to inspections performed at distribution centers, retail stores, etc. for finding damage during transportation.
That is, according to the state determination system S, when inspecting for damage, it is possible to realize an inspection with stable accuracy based on an objective index.

判定部315は、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルに対して、判定対象とする検査対象物4の把持時に動作制御部111が動作制御において用いた制御パラメータを入力することで判定を行う。
これにより、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標に基づいて判定をすることとなり、より安定した精度での検査を実現することができる。
The determination unit 315 operates the operation control unit 111 when gripping the inspection object 4 to be determined with respect to the machine learning model in which the relationship between the control parameter and the determination result regarding the damage of the inspection object 4 is machine-learned. Judgment is made by inputting the control parameters used in the control.
As a result, the judgment is made based on an objective index called a machine learning model in which the relationship between the control parameter and the judgment result regarding the damage of the inspection object 4 is machine-learned, and the inspection with more stable accuracy is realized. can do.

状態判定システムSは、機械学習部314をさらに備える。
機械学習部314は、制御パラメータと、検査対象物4の破損に関する判定結果との組を教師データとした機械学習をすることで、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルを構築する。
これにより、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標を構築することができる。
The state determination system S further includes a machine learning unit 314.
The machine learning unit 314 performs machine learning using a set of the control parameter and the determination result regarding the damage of the inspection object 4 as teacher data, and thereby performs the relationship between the control parameter and the determination result regarding the damage of the inspection object 4. Build a machine learning model that is machine-learned.
As a result, it is possible to construct an objective index called a machine learning model in which the relationship between the control parameter and the determination result regarding the damage of the inspection object 4 is machine-learned.

機械学習モデルは、制御パラメータと、検査対象物4の破損に関する判定結果との関係に加えて、さらにマスタ側アクチュエータ52及びスレーブ側アクチュエータ62の駆動時における周囲の環境との関係についても機械学習させた機械学習モデルである。
これにより、マスタ側アクチュエータ52及びスレーブ側アクチュエータ62の駆動時における周囲の環境という、さらに詳細な情報も考慮した、機械学習モデルを利用することができる。
The machine learning model is machine-learned not only about the relationship between the control parameters and the determination result regarding the damage of the inspection object 4, but also about the relationship with the surrounding environment when the master side actuator 52 and the slave side actuator 62 are driven. It is a machine learning model.
This makes it possible to use a machine learning model that takes into account more detailed information such as the surrounding environment when the master side actuator 52 and the slave side actuator 62 are driven.

機械学習において用いられる検査対象物4の破損に関する判定結果は、検査対象物4の把持時に操作機構55に対して操作を入力したユーザによってなされた判定結果である。
これにより、例えば、熟練したユーザや、正解を予め知っているユーザによる、正確な判定結果に基づいた、機械学習モデルを利用することができる。
The determination result regarding the damage of the inspection object 4 used in machine learning is the determination result made by the user who input the operation to the operation mechanism 55 when grasping the inspection object 4.
Thereby, for example, a machine learning model based on an accurate determination result by a skilled user or a user who knows the correct answer in advance can be used.

状態判定システムSは、識別部312をさらに備える。
ユーザが装着する撮影装置により撮影された検査対象物4の画像に基づいて、検査対象物4を認識することにより、該検査対象物4の種類を識別する。
判定部315又は判定部114は、識別部312が識別した検査対象物4の種類に対応する基準で、検査対象物4の破損に関する判定をする。
これにより、画像識別によって、より簡便に、検査対象物4の種類を識別できるのみならず、さらに様々な種類の検査対象物4それぞれに対応した、適切な基準により検査を行うことができる。
The state determination system S further includes an identification unit 312.
By recognizing the inspection object 4 based on the image of the inspection object 4 taken by the photographing device worn by the user, the type of the inspection object 4 is identified.
The determination unit 315 or the determination unit 114 determines the damage of the inspection object 4 based on the criteria corresponding to the type of the inspection object 4 identified by the identification unit 312.
Thereby, not only the type of the inspection object 4 can be more easily identified by the image identification, but also the inspection can be performed according to an appropriate standard corresponding to each of various types of inspection objects 4.

通知部214は、ユーザが装着する通知装置から、判定部315又は判定部114の判定結果と共に、あるいは該判定結果に代えて、該判定結果に基づいたユーザに対する作業指示を通知する。
これにより、ユーザに対して、破損の有無等に応じた適切な作業指示を通知することができる。
The notification unit 214 notifies the user of work instructions based on the determination result together with the determination result of the determination unit 315 or the determination unit 114, or in place of the determination result, from the notification device worn by the user.
As a result, it is possible to notify the user of an appropriate work instruction according to the presence or absence of damage or the like.

[ハードウェアやソフトウェアによる機能の実現]
上述した実施形態による一連の処理を実行させる機能は、ハードウェアにより実現することもできるし、ソフトウェアにより実現することもできるし、これらの組み合わせにより実現することもできる。換言すると、上述した一連の処理を実行する機能が、状態判定システムSの何れかにおいて実現されていれば足り、この機能をどのような態様で実現するのかについては、特に限定されない。
[Realization of functions by hardware and software]
The function of executing a series of processes according to the above-described embodiment can be realized by hardware, software, or a combination thereof. In other words, it suffices if the function of executing the above-mentioned series of processes is realized in any one of the state determination systems S, and the mode in which this function is realized is not particularly limited.

例えば、上述した一連の処理を実行する機能を、演算処理を実行するプロセッサによって実現する場合、この演算処理を実行するプロセッサは、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。 For example, when the function of executing the above-mentioned series of processes is realized by a processor that executes arithmetic processing, the processor that executes this arithmetic processing is composed of various processing units such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, the present invention includes a combination of these various processing units and a processing circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).

また、例えば、上述した一連の処理を実行する機能を、ソフトウェアにより実現する場合、そのソフトウェアを構成するプログラムは、ネットワーク又は記録媒体を介してコンピュータにインストールされる。この場合、コンピュータは、専用のハードウェアが組み込まれているコンピュータであってもよいし、プログラムをインストールすることで所定の機能を実行することが可能な汎用のコンピュータ(例えば、汎用のパーソナルコンピュータ等の電子機器一般)であってもよい。また、プログラムを記述するステップは、その順序に沿って時系列的に行われる処理のみを含んでいてもよいが、並列的あるいは個別に実行される処理を含んでいてもよい。また、プログラムを記述するステップは、本発明の要旨を逸脱しない範囲内において、任意の順番に実行されてよい。 Further, for example, when the function of executing the above-mentioned series of processes is realized by software, the programs constituting the software are installed in the computer via a network or a recording medium. In this case, the computer may be a computer having dedicated hardware built-in, or a general-purpose computer capable of performing a predetermined function by installing a program (for example, a general-purpose personal computer or the like). It may be an electronic device in general). Further, the step for describing the program may include only the processes performed in time series in the order thereof, but may include the processes executed in parallel or individually. Further, the steps for describing the program may be executed in any order within a range that does not deviate from the gist of the present invention.

このようなプログラムを記録した記録媒体は、コンピュータ本体とは別に配布されることによりユーザに提供されてもよく、コンピュータ本体に予め組み込まれた状態でユーザに提供されてもよい。この場合、コンピュータ本体とは別に配布される記憶媒体は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)、あるいはBlu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、例えば、MD(Mini Disc)等により構成される。これら記憶媒体は、例えば、図8のドライブ18や図10のドライブ38に装着されて、コンピュータ本体に組み込まれる。また、コンピュータ本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図8のROM12、図9のROM22、図10のROM32、図8の記憶部15、図9の記憶部25、あるいは、図10の記憶部35に含まれるハードディスク等により構成される。 The recording medium on which such a program is recorded may be provided to the user by being distributed separately from the computer main body, or may be provided to the user in a state of being incorporated in the computer main body in advance. In this case, the storage medium distributed separately from the computer itself is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versaille Disc), a Blu-ray (registered trademark) Disc (Blu-ray disc), or the like. The magneto-optical disk is composed of, for example, MD (MiniDisc) or the like. These storage media are attached to, for example, the drive 18 of FIG. 8 and the drive 38 of FIG. 10, and are incorporated in the computer body. The recording media provided to the user in a state of being incorporated in the computer body in advance include, for example, the ROM 12 of FIG. 8 in which the program is recorded, the ROM 22 of FIG. 9, the ROM 32 of FIG. 10, and the storage unit 15 of FIG. It is composed of a hard disk or the like included in the storage unit 25 of FIG. 9 or the storage unit 35 of FIG.

1 状態判定装置、2 ウェアラブル端末、3,3a サーバ装置、4 検査対象物、10,10a 制御ユニット、11,21,31 プロセッサ、12,22,32 ROM、13,23,33 RAM、14,24,34 通信部、15,25,35 記憶部、16,26,36 入力部、17,27,37 出力部、18,38 ドライブ、28 カメラ、29,19 センサ、50 マスタ側ユニット、51 マスタ側ドライバ、52 マスタ側アクチュエータ、53 マスタ側位置センサ、55 操作機構、60 スレーブ側ユニット、61 スレーブ側ドライバ、62 スレーブ側アクチュエータ、63 スレーブ側位置センサ、65 把持機構、111 動作制御部、112 パラメータ取得部、113 判定基準設定部、114 判定部、115 正解情報取得部、116 環境情報取得部、117 処理部、151 パラメータ記憶部、152 判定基準記憶部、153 正解情報記憶部、154 環境情報記憶部、211 指示解釈部、212 対象物撮影部、213、311 対象物情報管理部、214 通知部、215、313 作業情報管理部、251、351 対象物情報記憶部、252、352 作業情報記憶部、312 識別部、314 機械学習部、315 判定部、353 教師データ記憶部、354 学習モデル記憶部、CS 制御対象システム、FT 力・速度割当変換ブロック、FC 理想力源ブロック、PC 理想速度(位置)源ブロック、IFT 逆変換ブロック、N ネットワーク、S 状態判定システム、U ユーザ 1 Status determination device, 2 Wearable terminal, 3,3a server device, 4 Inspection target, 10,10a control unit, 11,21,31 processor, 12,22,32 ROM, 13,23,33 RAM, 14,24 , 34 communication unit, 15, 25, 35 storage unit, 16, 26, 36 input unit, 17, 27, 37 output unit, 18, 38 drive, 28 camera, 29, 19 sensor, 50 master side unit, 51 master side Driver, 52 Master side actuator, 53 Master side position sensor, 55 Operation mechanism, 60 Slave side unit, 61 Slave side driver, 62 Slave side actuator, 63 Slave side position sensor, 65 Grip mechanism, 111 Operation control unit, 112 Parameter acquisition Unit, 113 Judgment standard setting unit, 114 Judgment unit, 115 Correct answer information acquisition unit, 116 Environmental information acquisition unit, 117 Processing unit, 151 Parameter storage unit, 152 Judgment standard storage unit, 153 Correct answer information storage unit, 154 Environmental information storage unit , 211 Instruction interpretation unit, 212 Object photography unit, 213,311 Object information management unit, 214 Notification unit, 215, 313 Work information management unit, 251, 351 Object information storage unit, 252, 352 Work information storage unit, 312 Identification unit, 314 Machine learning unit, 315 Judgment unit, 353 Teacher data storage unit, 354 Learning model storage unit, CS control target system, FT force / speed allocation conversion block, FC ideal power source block, PC ideal speed (position) Source block, IFT inverse conversion block, N network, S status determination system, U user

Claims (9)

操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御手段と、
前記動作制御手段が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定手段と、
前記判定手段の判定結果を前記ユーザに対して通知する通知手段と、
を備えることを特徴とする状態判定システム。
The actuator on the operation mechanism side that operates the operation mechanism, and
The actuator on the gripping mechanism side that operates the gripping mechanism,
By driving the gripping mechanism side actuator in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the inspection target, and the inspection target input to the gripping mechanism. An operation control means for performing an operation control in which the operation mechanism controls an operation of transmitting the reaction force to the user by driving the actuator on the operation mechanism side in response to a reaction force from an object.
A determination means for determining damage to the inspection object based on the control parameters used by the operation control means in the operation control, and a determination means.
A notification means for notifying the user of the determination result of the determination means, and
A state determination system characterized by being equipped with.
前記判定手段は、前記制御パラメータと、前記検査対象物の破損に関する判定結果との関係を機械学習させた機械学習モデルに対して、判定対象とする検査対象物の把持時に前記動作制御手段が前記動作制御において用いた前記制御パラメータを入力することで前記判定を行う、
ことを特徴とする請求項1に記載の状態判定システム。
The determination means is a machine learning model in which the relationship between the control parameter and the determination result regarding the damage of the inspection object is machine-learned. The determination is made by inputting the control parameters used in the operation control.
The state determination system according to claim 1.
前記制御パラメータと、前記検査対象物の破損に関する判定結果との組を教師データとした機械学習をすることで、前記制御パラメータと、前記検査対象物の破損に関する判定結果との関係を機械学習させた機械学習モデルを構築する機械学習手段、
をさらに備えることを特徴とする請求項1又は2に記載の状態判定システム。
By performing machine learning using the set of the control parameter and the determination result regarding the damage of the inspection object as teacher data, the relationship between the control parameter and the determination result regarding the damage of the inspection object is machine-learned. Machine learning means to build a machine learning model,
The state determination system according to claim 1 or 2, further comprising.
前記機械学習モデルは、前記制御パラメータと、前記検査対象物の破損に関する判定結果との関係に加えて、さらに操作機構側アクチュエータ及び前記把持機構側アクチュエータの駆動時における周囲の環境との関係についても機械学習させた機械学習モデルである、
ことを特徴とする請求項2又は3に記載の状態判定システム。
In the machine learning model, in addition to the relationship between the control parameter and the determination result regarding the damage of the inspection object, the relationship with the surrounding environment when the actuator on the operation mechanism side and the actuator on the gripping mechanism side are driven is also obtained. It is a machine learning model that has been machine-learned.
The state determination system according to claim 2 or 3, wherein the state determination system is characterized in that.
前記機械学習において用いられる前記検査対象物の破損に関する判定結果は、前記検査対象物の把持時に前記操作機構に対して操作を入力したユーザによってなされた判定結果である、
ことを特徴とする請求項2から4の何れか1項に記載の状態判定システム。
The determination result regarding the damage of the inspection object used in the machine learning is the determination result made by the user who input the operation to the operation mechanism at the time of grasping the inspection object.
The state determination system according to any one of claims 2 to 4, wherein the state determination system is characterized by the above.
前記ユーザが装着する撮影装置により撮影された前記検査対象物の画像に基づいて、前記検査対象物を認識することにより、該検査対象物の種類を識別する識別手段をさらに備え、
前記判定手段は、前記識別手段が識別した検査対象物の種類に対応する基準で、前記検査対象物の破損に関する判定をする、
ことを特徴とする請求項1から5の何れか1項に記載の状態判定システム。
Further provided with an identification means for identifying the type of the inspection object by recognizing the inspection object based on the image of the inspection object taken by the imaging device worn by the user.
The determination means determines the damage of the inspection object based on the criteria corresponding to the type of the inspection object identified by the identification means.
The state determination system according to any one of claims 1 to 5, wherein the state determination system is characterized in that.
前記通知手段は、前記ユーザが装着する通知装置から、前記判定手段の判定結果と共に、あるいは該判定結果に代えて、該判定結果に基づいた前記ユーザに対する作業指示を通知する、
ことを特徴とする請求項1から5の何れか1項に記載の状態判定システム。
The notification means notifies the user of a work instruction based on the determination result together with the determination result of the determination means or instead of the determination result from the notification device worn by the user.
The state determination system according to any one of claims 1 to 5, wherein the state determination system is characterized in that.
操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
を備えたシステムが行う状態判定方法であって、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御ステップと、
前記動作制御ステップの前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定ステップと、
前記判定ステップの判定結果を前記ユーザに対して通知する通知ステップと、
を含むことを特徴とする状態判定方法。
The actuator on the operation mechanism side that operates the operation mechanism, and
The actuator on the gripping mechanism side that operates the gripping mechanism,
It is a state judgment method performed by a system equipped with
By driving the gripping mechanism side actuator in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the inspection target, and the inspection target input to the gripping mechanism. An operation control step that controls an operation in which the operation mechanism controls an operation of transmitting the reaction force to the user by driving the actuator on the operation mechanism side in response to a reaction force from an object.
A determination step for determining damage to the inspection object based on the control parameters used in the operation control of the operation control step, and a determination step.
A notification step for notifying the user of the determination result of the determination step,
A state determination method comprising.
操作機構に入力されたユーザの操作に応じて把持機構を動作させる把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構を動作させる操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御機能と、
前記動作制御機能が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定機能と、
前記判定機能の判定結果を前記ユーザに対して通知する通知機能と、
をコンピュータに実現させることを特徴とする状態判定プログラム。
By driving the actuator on the gripping mechanism side that operates the gripping mechanism in response to the user's operation input to the operating mechanism, the gripping mechanism controls the operation of gripping the object to be inspected and is input to the gripping mechanism. By driving the actuator on the operation mechanism side that operates the operation mechanism in response to the reaction force from the inspection object, the operation control that the operation mechanism controls the operation of transmitting the reaction force to the user is performed. Motion control function and
A determination function for determining damage to the inspection object based on the control parameters used by the operation control function in the operation control, and a determination function.
A notification function for notifying the user of the determination result of the determination function, and
A state judgment program characterized by realizing a computer.
JP2021189744A 2020-11-30 2021-11-22 State determination system, state determination method, and state determination program Active JP7148938B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020199222 2020-11-30
JP2020199222 2020-11-30

Publications (2)

Publication Number Publication Date
JP2022087045A true JP2022087045A (en) 2022-06-09
JP7148938B2 JP7148938B2 (en) 2022-10-06

Family

ID=81893822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189744A Active JP7148938B2 (en) 2020-11-30 2021-11-22 State determination system, state determination method, and state determination program

Country Status (1)

Country Link
JP (1) JP7148938B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180725A (en) * 1991-12-26 1993-07-23 Ishida Scales Mfg Co Ltd Method of inspecting seal of sealed and packaged product
JP2000008971A (en) * 1998-06-24 2000-01-11 Hino Motors Ltd Exhaust gas recirculation cooler
JP2000084871A (en) * 1998-09-17 2000-03-28 Hitachi Ltd Master slave manipulator
JP2003149074A (en) * 2001-11-13 2003-05-21 Ishida Co Ltd Seal checking device
JP2009241247A (en) * 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2012007985A (en) * 2010-06-24 2012-01-12 Nec Corp Confirmation work support system, server device, head-mounted display device, wearable terminal, confirmation work support method, and program
WO2017033380A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Robot system
JP2017148924A (en) * 2016-02-26 2017-08-31 花王株式会社 Robot hand
JP2017221597A (en) * 2016-06-17 2017-12-21 株式会社Jvcケンウッド Imaging device, imaging method and imaging program
JP2018204959A (en) * 2017-05-30 2018-12-27 株式会社A・R・P Bag breaking strength inspection device
JP2019051569A (en) * 2017-09-14 2019-04-04 株式会社東芝 Holding device, handling device, and detection device
JP2020170391A (en) * 2019-04-04 2020-10-15 ファナック株式会社 Mechanical learning device and mechanical learning method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180725A (en) * 1991-12-26 1993-07-23 Ishida Scales Mfg Co Ltd Method of inspecting seal of sealed and packaged product
JP2000008971A (en) * 1998-06-24 2000-01-11 Hino Motors Ltd Exhaust gas recirculation cooler
JP2000084871A (en) * 1998-09-17 2000-03-28 Hitachi Ltd Master slave manipulator
JP2003149074A (en) * 2001-11-13 2003-05-21 Ishida Co Ltd Seal checking device
JP2009241247A (en) * 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2012007985A (en) * 2010-06-24 2012-01-12 Nec Corp Confirmation work support system, server device, head-mounted display device, wearable terminal, confirmation work support method, and program
WO2017033380A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Robot system
JP2017148924A (en) * 2016-02-26 2017-08-31 花王株式会社 Robot hand
JP2017221597A (en) * 2016-06-17 2017-12-21 株式会社Jvcケンウッド Imaging device, imaging method and imaging program
JP2018204959A (en) * 2017-05-30 2018-12-27 株式会社A・R・P Bag breaking strength inspection device
JP2019051569A (en) * 2017-09-14 2019-04-04 株式会社東芝 Holding device, handling device, and detection device
JP2020170391A (en) * 2019-04-04 2020-10-15 ファナック株式会社 Mechanical learning device and mechanical learning method

Also Published As

Publication number Publication date
JP7148938B2 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US10706331B2 (en) Task execution system, task execution method, training apparatus, and training method
Segura et al. Visual computing technologies to support the Operator 4.0
US11619927B2 (en) Automatic analysis of real time conditions in an activity space
JP6403920B1 (en) 3D space monitoring device, 3D space monitoring method, and 3D space monitoring program
Dang et al. Semantic grasping: planning task-specific stable robotic grasps
US20210331311A1 (en) Image generation device, robot training system, image generation method, and non-transitory computer readable storage medium
Melnik et al. Using tactile sensing to improve the sample efficiency and performance of deep deterministic policy gradients for simulated in-hand manipulation tasks
JP2023076426A (en) Machine learning system for technical knowledge capture
Parsa et al. Toward ergonomic risk prediction via segmentation of indoor object manipulation actions using spatiotemporal convolutional networks
Wilhelm et al. Improving Human-Machine Interaction with a Digital Twin: Adaptive Automation in Container Unloading
JP7264253B2 (en) Information processing device, control method and program
US11203116B2 (en) System and method for predicting robotic tasks with deep learning
Kurrek et al. Q-model: An artificial intelligence based methodology for the development of autonomous robots
JP6807589B1 (en) Status judgment system, status judgment method, and status judgment program
Serrano-Munoz et al. Learning and generalising object extraction skill for contact-rich disassembly tasks: an introductory study
Carfì et al. Hand-object interaction: From human demonstrations to robot manipulation
KR102509698B1 (en) Dancing smart robot studied dance gesture
JP7148938B2 (en) State determination system, state determination method, and state determination program
Ni et al. Translational objects dynamic modeling and correction for point cloud augmented virtual reality–Based teleoperation
Thanki et al. Advanced Technologies for Industrial Applications
JP2020023050A (en) Tactile information estimation device, tactile information estimation method and program
Behrens et al. Embodied Reasoning for Discovering Object Properties via Manipulation
Wang et al. DeepClaw 2.0: A Data Collection Platform for Learning Human Manipulation
Nambiar et al. Automation of unstructured production environment by applying reinforcement learning
US20230351197A1 (en) Learning active tactile perception through belief-space control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211214

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220914

R150 Certificate of patent or registration of utility model

Ref document number: 7148938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150