JP2019025582A - 機械学習装置、及びユーザ識別装置 - Google Patents

機械学習装置、及びユーザ識別装置 Download PDF

Info

Publication number
JP2019025582A
JP2019025582A JP2017146715A JP2017146715A JP2019025582A JP 2019025582 A JP2019025582 A JP 2019025582A JP 2017146715 A JP2017146715 A JP 2017146715A JP 2017146715 A JP2017146715 A JP 2017146715A JP 2019025582 A JP2019025582 A JP 2019025582A
Authority
JP
Japan
Prior art keywords
worker
operation panel
user identification
machine learning
teaching operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017146715A
Other languages
English (en)
Other versions
JP6577532B2 (ja
Inventor
恵介 村上
Keisuke Murakami
恵介 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017146715A priority Critical patent/JP6577532B2/ja
Priority to US16/018,177 priority patent/US10614369B2/en
Priority to DE102018210957.5A priority patent/DE102018210957B4/de
Priority to CN201810834920.1A priority patent/CN109304714B/zh
Publication of JP2019025582A publication Critical patent/JP2019025582A/ja
Application granted granted Critical
Publication of JP6577532B2 publication Critical patent/JP6577532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/023Learning or tuning the parameters of a fuzzy system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Biomedical Technology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】作業者の成りすましを防ぎ、ロボットの作業における安全性を確保するための機械学習装置を提供する。【解決手段】機械学習装置10は、予め設定されたロボット制御装置20の教示操作盤25に係る操作を作業者に行わせることにより検出される、作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを、入力データとして取得する入力データ取得手段11と、作業者の識別情報をラベルとして取得するラベル取得手段12と、入力データとラベルとの組を教師データとして教師あり学習を行うことにより、ロボット制御装置20の作業者を認証するためのユーザ識別を行う学習モデルを構築する学習手段13と、を備える。【選択図】図2

Description

本発明は、機械学習装置、及びユーザ識別装置に関する。
ロボットを運用するための作業には重大な事故につながる恐れがあるため、作業者に応じて操作内容を制限する等のセキュリティを設けることが知られている。これを実現するために、ID情報を記録したカードやUSB端末、又はパスワードを用いて作業者を判別し、作業者に合わせて作業内容を制限する提案がなされてきた。
例えば、特許文献1は、ネットワークに接続されたネットワークロボットを利用する際の、権利内容及び利用量の情報を含む権利データを生成すると共に、この権利データを識別するための権利IDを発行し、ユーザ端末から入力された権利IDを用いてユーザ認証する、サービス提供システムを開示している。
特開2005−326996号公報
しかし、特許文献1に係る発明において、ID情報を記録したIDカードが貸与されたり、パスワードが漏えいしたりした場合には、安全性を確保できないという問題があった。
そこで、本発明は、作業者の成りすましを防ぎ、ロボットの作業における安全性を確保するための機械学習装置を提供することを目的とする。
(1) 本発明の機械学習装置(例えば、後述の機械学習装置10)は、ロボット制御装置(例えば、後述の制御装置20)の作業者を認証するためのユーザ識別を行う学習モデルを構築する機械学習装置であって、予め設定された前記ロボット制御装置の教示操作盤(例えば、後述の教示操作盤25)に係る操作を前記作業者に行わせることにより検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを、入力データとして取得する入力データ取得手段(例えば、後述の入力部11)と、前記作業者の識別情報をラベルとして取得するラベル取得手段(例えば、後述のラベル取得部12)と、前記入力データと前記ラベルとの組を教師データとして教師あり学習を行うことにより、前記ロボット制御装置の作業者を認証するためのユーザ識別を行う学習モデルを構築する学習手段(例えば、後述の学習部13)と、を備える。
(2) (1)に記載の機械学習装置(例えば、後述の機械学習装置10)において、前記教示操作盤(例えば、後述の教示操作盤25)は、前記教示操作盤の備える表示器(例えば、後述の表示器27)に、前記予め設定された前記ロボット制御装置(例えば、後述の制御装置20)の教示操作盤に係る操作のガイダンスを表示することが好ましい。
(3) (1)又は(2)に記載の機械学習装置(例えば、後述の機械学習装置10)において、前記予め設定された前記ロボット制御装置(例えば、後述の制御装置20)の教示操作盤(例えば、後述の教示操作盤25)に係る操作は、前記作業者が作業時に実際に前記教示操作盤を使用する際の操作を含むことが好ましい。
(4) (1)〜(3)に記載の機械学習装置(例えば、後述の機械学習装置10)において、前記入力データ取得手段(例えば、後述の入力部11)は、前記測定値から得られる特徴量を前記操作データとして取得することが好ましい。
(5) (4)に記載の機械学習装置(例えば、後述の機械学習装置10)において、前記特徴量は、前記作業者の前記操作に基づく、前記教示操作盤(例えば、後述の教示操作盤25)により検知される前記教示操作盤の操作手順、前記教示操作盤が備える各キースイッチ(例えば、後述のキースイッチ28)の使用頻度、前記教示操作盤が備えるデッドマンスイッチ(例えば、後述のデッドマンスイッチ29)の使用頻度、前記教示操作盤が検出する振動、前記教示操作盤が検出する加速度、前記教示操作盤の操作時の機体の傾き、前記教示操作盤のタッチパネルが検知する筆圧のうち、少なくとも1つに関することが好ましい。
(6) (1)〜(5)に記載の機械学習装置(例えば、後述の機械学習装置10)において、前記入力データ取得手段(例えば、後述の入力部11)は、さらに、本番時における前記作業者の教示操作盤(例えば、後述の教示操作盤25)に係る実際の操作により検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを入力データとして取得し、前記ラベル取得手段(例えば、後述のラベル取得部12)は、さらに、当該作業者の識別情報をラベルとして取得し、前記学習手段(例えば、後述の学習部13)は、さらに、前記入力データと前記ラベルとの組を教師データとして教師あり学習を行うことで、前記学習モデルを更新することが好ましい。
(7) 本発明のユーザ識別装置(例えば、後述のユーザ識別装置30)は、(1)〜(6)に記載の機械学習装置(例えば、後述の機械学習装置10)で構築した前記学習モデルを用いたユーザ識別装置であって、前記予め設定された前記教示操作盤に係る操作を前記作業者に行わせることにより検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを取得する操作データ取得手段(例えば、後述の取得部31)と、前記操作データと前記学習モデルとに基づいて、前記作業者を識別する作業者識別手段(例えば、後述の識別部32)と、を備える。
(8) (7)に記載のユーザ識別装置(例えば、後述のユーザ識別装置30)において、前記操作データ取得手段(例えば、後述の取得部31)は、さらに、前記作業者が本番時に前記教示操作盤(例えば、後述の教示操作盤25)に係る実際の操作を実行中に、前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを取得し、前記作業者識別手段(例えば、後述の識別部32)は、さらに、前記操作データと前記学習モデルとに基づいて、前記作業者の識別情報が正しいか否かを判断することが好ましい。
(9) (7)又は(8)に記載のユーザ識別装置(例えば、後述のユーザ識別装置30)は、前記教示操作盤(例えば、後述の教示操作盤25)に組み込まれ、前記教示操作盤と一体となっていることが好ましい。
(10) 本発明のユーザ識別装置(例えば、後述のユーザ識別装置30)は、(1)〜(6)の機械学習装置(例えば、後述の機械学習装置10)と、前記予め設定された前記教示操作盤(例えば、後述の教示操作盤25)に係る操作を前記作業者に行わせることにより検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを取得する操作データ取得手段(例えば、後述の取得部31)と、前記操作データと、前記機械学習装置で構築した前記学習モデルとに基づいて、前記作業者を識別する作業者識別手段(例えば、後述の識別部32)と、を備える。
(11) 本発明のユーザ識別システムは、(7)〜(8)のユーザ識別装置(例えば、後述のユーザ識別装置30)と、前記機械学習装置(例えば、後述の機械学習装置10)と、前記ロボット制御装置(例えば、後述の制御装置20)と、前記教示操作盤(例えば、後述の教示操作盤25)と、を備える。
(12) (11)に記載のユーザ識別システム(例えば、後述のユーザ識別システム100)において、前記作業者識別手段(例えば、後述の識別部32)が、前記作業者の識別情報が否であると判断した場合に、前記教示操作盤(例えば、後述の教示操作盤25)に係る操作を無効とする操作無効化手段(例えば、後述の操作無効化部33)を、前記ロボット制御装置(例えば、後述の制御装置20)がさらに備えることが好ましい。
(13) (11)又は(12)に記載のユーザ識別システム(例えば、後述のユーザ識別システム100)において、前記作業者識別手段(例えば、後述の識別部32)が、前記作業者の識別情報が否であると判断した場合に、警報を発報する警報手段(例えば、後述の警報部24)を、前記ロボット制御装置(例えば、後述の制御装置20)がさらに備えることが好ましい。
(14) (11)〜(13)に記載のユーザ識別システム(例えば、後述のユーザ識別システム100)において、前記作業者識別手段(例えば、後述の識別部32)が、前記作業者の識別情報の正否を判断できなかった場合に、前記機械学習装置(例えば、後述の機械学習装置10)は、作業者の身体的差異に係る特徴量を算出するために用いることが可能な、さらなる操作データを用いて、さらなる学習モデルを構築し、前記作業者識別手段は、さらなる操作データと、さらなる学習モデルとに基づいて、前記作業者を再度識別することが好ましい。
本発明によれば、作業者の成りすましを防ぎ、ロボットの作業における安全性を確保することができる。
本発明の第1実施形態に係るユーザ識別システムを示すブロック図である。 本発明の第1実施形態に係る機械学習装置及び制御装置の詳細を示すブロック図である。 本発明の第1実施形態に係る教示操作盤の構成例を示す図である。 本発明の第1実施形態に係るユーザ識別装置及び制御装置の詳細を示すブロック図である。 本発明の第1実施形態に係るユーザ識別システムにおける機械学習時の動作を示すフローチャートである。 本発明の第1実施形態に係るユーザ識別システムにおけるユーザ識別時の動作を示すフローチャートである。 本発明のその他の実施形態に係る機械学習装置、ユーザ識別装置、及び制御装置の詳細を示すブロック図である。
<第1実施形態>
以下、本発明の第1実施形態を図面に基づいて説明する。図1は、本発明に係るユーザ識別システム100を示すブロック図である。図2は、主として、本実施形態に係る機械学習装置10及び制御装置20の詳細を示すブロック図である。図3は、本発明に係るユーザ識別方法で用いる教示操作盤25の構成例である。図4は、主として、本実施形態に係るユーザ識別装置30及び制御装置20の詳細を示すブロック図である。
<ユーザ識別システム100の構成>
まず、本実施形態に係るユーザ識別システム100の構成について説明する。ユーザ識別システム100は、図1に示すように、機械学習装置10、m台の制御装置20、m台の教示操作盤25、n台のユーザ識別装置30、m台のロボット50を備えている。なお、m及びnは任意の自然数である。
制御装置20は、ロボット50に制御信号を送出することにより、ロボット50が所定の動作を行うように制御する。制御装置20は、ロボット50のためのプログラムがインストールされた汎用のコンピュータであってもよいし、専用のコンピュータであってもよい。
ロボット50は、制御装置20からの制御信号により動作し、ある程度自律的に、作業者の代行となる自動作業を行う。
なお、機械学習装置10、教示操作盤25、ユーザ識別装置30の機能と構成については、図2〜図4を用いて後述する。
ここで、制御装置20と教示操作盤25とロボット50とは1対1の組とされて、通信可能に接続されている。これら制御装置20と教示操作盤25とロボット50との組は、例えば同じ工場に複数組配置されていてもよく、それぞれ異なる工場に配置されていてもよい。
また、機械学習装置10と、制御装置20と、ユーザ識別装置30とは、相互に通信可能に接続されている。なお、機械学習装置10と、制御装置20と、ユーザ識別装置30とは、接続インタフェースを介して直接接続されても、ネットワーク40を介して接続されてもよい。ネットワーク40は、例えば、工場内に構築されたLAN(Local Area Network)や、インターネット、公衆電話網、あるいは、これらの組み合わせである。ネットワーク40における具体的な通信方式や、有線接続及び無線接続のいずれであるか等については、特に限定されない。
次に、ユーザ識別システム100に含まれるこれら装置の機能について、図2〜図4に基づいて説明する。ここで、図2は、主として、機械学習装置10と制御装置20に含まれる機能ブロックと、機械学習時におけるデータの流れを表すブロック図である。なお、各制御装置20はそれぞれ同等の機能を有しているため、図2では1台のみを図示する。同様に、各教示操作盤25もそれぞれ同等の機能を有しているため、図2では1台のみを図示する。また、各装置間に存在するネットワーク40については、その図示を省略する。
教示操作盤25は、ロボット50を自動運転する際に、例えば、ロボット50に対して動作を教示するために作業者が操作する装置である。教示操作盤25は作業者からの操作に基づいて、制御装置20に対して操作信号を送信する。
図3は、教示操作盤25の構成例を示す。教示操作盤25は、主として、電源スイッチ26、表示器27、キースイッチ28、及び左右のデッドマンスイッチ29A及び29Bを備える。電源スイッチ26は、外部電源からの教示操作盤25に対する電力供給の有無を切り替えるスイッチである。表示器27は、教示操作盤25を用いる作業者に対してガイダンスやロボット50の各モニタ値を表示し、タッチパネルとして実現される。キースイッチ28は、作業者がロボット50に対する動作の教示を入力するためのスイッチである。デッドマンスイッチ29A及び29Bは、非常停止スイッチ機構である。通常の操作時において、作業者はデッドマンスイッチ29A及び29Bのいずれかに対し、所定範囲の押圧力を印加する。非常時において、作業者がデッドマンスイッチ29A及び29Bのいずれかを強く押した場合に、ロボット50は動作を停止する。あるいは、作業者がデッドマンスイッチ29A及び29Bの双方から手を離した場合に、ロボット50は動作を停止してもよい。
図2に示すように、制御装置20は、特徴量算出部21、ログイン処理部22、操作無効化部23、及び警報部24を有する。
特徴量算出部21は、教示操作盤25から入力される操作信号から特徴量を算出する。
より具体的には、教示操作盤25の表示器27に表示された操作のガイダンスに従って、作業者は、上記の教示操作盤25を操作する。作業者が初めて教示操作盤25を操作する場合、例えば、管理責任者の立会いの下で、規定された操作を行ってもよい。この操作は、作業者が本番の操作を行う前のルーチン操作であり、作業者が実際に操作盤を使用する際の操作を全て網羅する内容を含み、操作時間も、作業者が実際に教示操作盤を操作する時間に近い時間とすることが望ましい。
特徴量算出部21は、これらの操作に係る操作信号の測定値から、特徴量を算出し、後述の機械学習装置10に送信する。
具体的には、この特徴量は、教示操作盤25により検知される教示操作盤25の操作手順、各キースイッチ28の使用頻度、デッドマンスイッチ29A及び29Bの使用頻度、教示操作盤25が検出する振動、教示操作盤25が検出する加速度、教示操作盤25の操作時の機体の傾き、表示器27が検知する筆圧のうち、少なくとも1つに関する。
同じ作業を行う場合でも、作業者が異なれば、各キースイッチ28やデッドマンスイッチ29A及び29Bの使用方法も異なってくる。例えば、熟練者と非熟練者とでは、操作するキースイッチを押す回数に差が生じる。より具体的には、熟練者はキースイッチを押す回数が少なくて済む一方で、非熟練者はスイッチの押下が冗長となる。また、上記のようにデッドマンスイッチ29A及び29Bは、教示操作盤25の左右に位置するため、作業者の利き手によって使用するスイッチに偏りが生じる。後述の方法により、これらの操作の特徴が作業者によって異なることを用いて学習モデルを構築するため、上記のように、特徴量算出部21は、これらの操作に係る操作信号の測定値から得られる特徴量を、算出する。
ログイン処理部22、操作無効化部23、警報部24の機能については、図4を用いて後述する。
機械学習装置10は、教師あり機械学習により、ロボット50の制御装置20の作業者を認証するための学習モデルを構築する。そのため、図2に示すように、機械学習装置10は、入力部11、ラベル取得部12、学習部13、及び学習モデル記憶部14を備えている。
入力部11は、制御装置20の特徴量算出部21から、特徴量を取得する。
ラベル取得部12は、作業者の識別情報であるラベルを取得する。
学習部13は、特徴量とラベルとの組を教師データとして教師あり学習を行うことにより、制御装置20の作業者を認証するためのユーザ識別を行う学習モデルを構築し、構築した学習モデルを、後述のユーザ識別装置30の識別部32に送信する。学習モデル記憶部14は、学習部13が構築した学習モデルを記憶する。
なお、学習部13は、例として、サポート・ベクター・マシン(Support Vector Machine、以下SVMともいう)を用いて実現することが可能である。SVMは公知技術であるのでその詳細な説明は省略するが、教師あり学習(正解データと非正解データが教師データとして与えられる学習)を用いる識別手法の1つであり、識別が優れた学習モデルとして知られており、例えば、未学習データに対して高い識別性能(高い汎化性能)を得られることが知られている。
学習部13は、上記のラベルとして、特定の作業者に該当するか否かに係る二値化されたラベルを用いると共に、上記の特徴量を含む空間を、特定の作業者に該当するか否かに関して、マージンが最大となるように分離する超平面を算出する。さらに、学習部13は、この超平面の係数を、後述のユーザ識別装置30がユーザ識別のために用いる学習モデルのパラメータとすることが可能である。
例えば、制御装置20に登録すべき作業者として、A、B、及びCの3名の作業者が存在する場合、ラベル取得部12が取得するラベルとして、「Aである」というラベルと、「Aではない」というラベルとを用いる。さらに、学習部13は、A、B、及びC、3名分の特徴量データ群を、「Aである」というラベルに対応するか(正例)、「Aではない」というラベルに対応するか(負例)によって分離する超平面であって、「Aである」特徴量データ群のうち最も近傍に存在する特徴量データとの距離と、「Aではない」特徴量データ群のうち最も近傍に存在する特徴量データとの距離が、最大となる超平面を求める。学習部13は、この超平面の係数を用いて、「Aである」か「Aではない」かについて識別する学習モデルを構築することが可能である。同様に、学習部13は、同一の特徴量データ群と、「Bである」及び「Bではない」というラベルを用いることにより、「Bである」か「Bではない」かについて識別する学習モデルを構築することが可能である。また、学習部13は、同一の特徴量データ群と、「Cである」及び「Cではない」というラベルを用いることにより、「Cである」か「Cではない」かについて識別する学習モデルを構築することが可能である。すなわち、学習部13が、SVMを用いて実現された場合、A、B、及びCを識別するために、A、B、及びCの各々に対応する3つの学習モデルを構築することとなる。
学習モデル記憶部14は、上記のように、学習部13が構築した学習モデルを記憶する。とりわけ、学習部13が、SVMを用いて実現された場合には、識別すべき作業者の人数分の学習モデルを記憶する。
図4は、主として、ユーザ識別装置30と制御装置20とに含まれる機能ブロックと、ユーザ識別時におけるデータの流れを表すブロック図である。
ユーザ識別装置30は、教示操作盤25に係る操作をしている作業者が、事前に登録された特定の作業者に対応するか否かについて識別する。そのため、図4に示すように、ユーザ識別装置30は、取得部31、及び識別部32を備える。
取得部31は、上記の入力部11と同様に、教示操作盤25の表示器27にガイダンス表示された操作を作業者に行わせることにより、教示操作盤25から入力される操作信号から、制御装置20の特徴量算出部21が算出した特徴量を取得する。繰り返しとなるが、この操作は、作業者が本番の操作を行う前のルーチン操作であり、作業者が実際に操作盤を使用する際の操作を全て網羅する内容を含み、操作時間も、作業者が実際に教示操作盤を操作する時間に近い時間とすることが望ましい。
識別部32は、取得部31が取得した特徴量と、機械学習装置10の学習部13から取得した学習モデルとを用いて、教示操作盤25に係る操作を行った作業者が、事前に登録された作業者であるか否か、識別し、識別結果を制御装置20に送信する。
なお、図4においては、簡略化のため、1つの識別部32のみ示すが、上記のように、機械学習装置10の学習部13がSVMを用いて実現された場合には、識別部32は、事前に登録された作業者の人数分だけ存在する。具体的には、事前に登録された作業者が、例えば、A、B、及びCの3名存在した場合、教示操作盤25に係る操作を行った作業者が、Aか否かを識別する識別部32Aと、Bか否かを識別する識別部32Bと、Cか否かを識別する識別部32Cと、合計3つの識別部32が必要となる。
この場合、最初に、識別部32Aが、上記の操作データを用いて、操作をした作業者がAに一致するか否かを識別し、次に、識別部32Bが、上記の操作データを用いて、操作をした作業者がBに一致するか否かを識別し、最後に、識別部32Cが、上記の操作データを用いて、操作をした作業者がCに一致するか否かを識別することにより、操作をした作業者が、A、B、及びCのうち誰に一致するかを識別することが可能となる。
制御装置20は、上記のように、特徴量算出部21に加えて、ログイン処理部22、操作無効化部23、及び警報部24を備える。
ログイン処理部22は、ユーザ識別装置30の識別部32から受信した識別結果に基づいて、教示操作盤25の表示器27にガイダンス表示された操作を行った作業者の、制御装置20へのログイン処理をする。より具体的には、ログイン処理部22が、ユーザ識別装置30の識別部32から、作業者の識別情報が正である旨の識別結果を受信した場合には、作業者のログインを許可する。一方で、ログイン処理部22が、ユーザ識別装置30から、作業者の識別情報が否である旨の識別結果を受信した場合には、作業者のログインを許可しない。
操作無効化部23は、ユーザ識別装置30の識別部32から、作業者の識別情報が否である旨の識別結果を受信した場合に、教示操作盤25に係る操作を無効とする。これにより、作業者は、教示操作盤25に係る操作が出来なくなる。
警報部24は、ユーザ識別装置30から、作業者の識別情報が否である旨の識別結果を受信した場合に、警報を発報する。
<機械学習時の動作>
次に、本実施形態に係るユーザ識別システム100における機械学習時の動作について説明する。図5は、この機械学習時の機械学習装置10の動作を示すフローチャートである。
ステップS11において、機械学習装置10の入力部11は、制御装置20の特徴量算出部21から、特徴量を取得する。より具体的には、作業者が、教示操作盤25の表示器27に表示された操作のガイダンスに従って、教示操作盤25を操作した際の操作信号から、特徴量算出部21が算出した特徴量を、入力部11が取得する。
ステップS12において、機械学習装置10のラベル取得部12は、作業者の識別情報であるラベルを取得する。
ステップS13において、機械学習装置10の学習部13は、特徴量とラベルとの組を教師データとして受け付ける。
ステップS14において、機械学習装置10の学習部13は、この教師データを用いて機械学習を実行する。
ステップS15において、機械学習装置10の学習部13は、機械学習を終了するか、それとも機械学習を繰り返すかを判定する。ここで、機械学習を終了させる条件は任意に定めることができる。例えば、予め定められた回数だけ機械学習を繰り返した場合に、機械学習を終了させるようにしてもよい。
ここで、機械学習を繰り返す場合には、処理はステップS11に戻り、機械学習装置10は同じ動作を繰り返す。一方、機械学習を終了する場合には、ステップS16において、機械学習装置10は、その時点までの機械学習により構築した学習モデルをネットワーク40経由で各ユーザ識別装置30に送信する。
また、機械学習装置10の学習モデル記憶部14は、この学習モデルを記憶する。これにより、新たに設置されたユーザ識別装置30から学習モデルを要求された場合に、そのユーザ識別装置30に学習モデルを送信することができる。また、新たな教師データを取得した場合に、学習モデルに対して更なる機械学習を行うこともできる。
<ユーザ識別時の動作>
次いで、本実施形態に係るユーザ識別システム100におけるユーザ識別時の動作について説明する。図6は、このユーザ識別時のユーザ識別装置30の動作を示すフローチャートである。
ステップS21において、ユーザ識別装置30の識別部32は、機械学習装置10が構築した学習モデルをネットワーク40経由で受信することにより、学習モデルを取得する。
ステップS22において、ユーザ識別装置30の取得部31は、制御装置20から、識別情報と、特徴量を取得する。より具体的には、教示操作盤25の表示器27に表示された操作のガイダンスに従って、作業者が教示操作盤25を操作した際の操作信号から算出された特徴量を、識別情報と共に、取得部31が取得する。
ステップS23において、ユーザ識別装置30の識別部32は、特徴量と、機械学習装置10が構築した学習モデルとに基づいて、作業者を識別する。
ステップS24において、識別情報が正の場合(S24:YES)には、処理はステップS25に移行する。識別情報が否の場合(S24:NO)には、処理はステップS26に移行する。
ステップS25において、制御装置20のログイン処理部22は、ユーザ識別装置30の識別部から、識別情報が正である旨の識別結果を受信し、作業者のログインを許可する。
ステップS26において、制御装置20のログイン処理部22は、ユーザ識別装置30の識別部から、識別情報が否である旨の識別結果を受信し、作業者のログインを不許可とする。
ステップS27において、制御装置20の操作無効化部33は、教示操作盤25に係る操作を無効とする。この結果、作業者は教示操作盤25に係る操作が出来なくなる。
なお、ステップS27において、制御装置20の操作無効化部33が、教示操作盤25に係る操作を無効とする代わりに、あるいは、教示操作盤25に係る操作を無効とするのに加えて、制御装置20の警報部24が警報を発報してもよい。
<第1実施形態の効果>
このように、本実施形態では、機械学習装置10において、教示操作盤に係る操作を作業者に行わせることにより検出される、作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データから、ロボット制御装置の作業者を認証するためのユーザ識別を行う学習モデルを構築する。
また、ユーザ識別装置30において、機械学習装置10によって構築された学習モデルに基づいて、作業者を識別する。
この点、教示操作盤25の扱い方によって変化する特徴量を機械学習し、作業者に固有のパターンを抽出することで、教示操作盤25が作業者を識別すれば、作業者の成り済ましを防ぎ、ロボットの作業における安全性を確保することができる。とりわけ、教示操作盤25側にカメラやIDリーダー等を必要とすることもなく、作業者の教示操作盤25の扱い方からパターンを抽出するので、作業者が偽装をすることが困難となる。
上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態に本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において、種々の変更を施した形態での実施が可能である。
<変形例1>
本実施形態における、作業者を認証する際の作業者に行わせる教示操作盤25に係る操作として、作業者がロボット50を実際に操作する際の教示操作盤25に係る操作を含むものとしたが、これに限定されない。
作業者がロボット50を実際に操作する際の教示操作盤25に係る操作以外に、作業者の身体的な差異等を直接識別できる動作を行わせてもよい。より具体的には、例えば、作業者に教示操作盤25を持って歩かせる動作を含ませてもよい。そうすることで、歩行により測定される教示操作盤25の振動データを、作業者の歩幅を示す特徴量として用いることができる。また、作業者に教示操作盤25を持つ腕を伸ばし、頭の上まで持ち上げさせる動作を含めてもよい。この動作により測定される教示操作盤25の傾きに関するデータを、作業者の腕の長さを示す特徴量として用いることができる。
このような作業者の身体的な差異等を直接識別できる動作を、前述したルーチン操作に含むように構成することができる。
なお、作業者の身体的な差異等を直接識別できる動作を付加した特徴量に基づく学習モデル(「学習モデル_2」という)を、前述したルーチン操作から得られる特徴量に基づく学習モデル(「学習モデル_1」という)に加えて、学習するようにしてもよい。
そうすることで、ログイン時に、作業者に前述したルーチン操作を行わせた場合に、「学習モデル_1」によりユーザ識別装置30が作業者を識別できなかったときに、さらに、前述の作業者の身体的な差異等を直接識別できる動作を行わせることで、ユーザ識別装置30が「学習モデル_2」により作業者を識別するように識別処理を段階的に行うようにしてしてもよい。
<変形例2>
また、本実施形態における機械学習時に用いられる構成要素として、機械学習装置10の学習部13が、2クラス(正否判定のYes/No)のパターン識別器であるSVMを用いて実現されるとしたが、これに限定されない。
例えば、単純ベイズ分類器、ニューラルネットワーク、ブースティング等を用いて、教師あり学習を行うようにしてもよい。
また、複数クラスに分類するように、SVMを行使してもよい、また、複数クラスに識別分類するような機械学習(例えばニューラルネットワーク)を用いてもよい。
例えば、作業者がA、B、及びCの3名存在する場合、機械学習装置10のラベル取得部12は、ラベルA、ラベルB、及びラベルCの3種類のラベルを取得し、学習部13が、A、B、及びC3名分の特徴量と、これら3種類のラベルとの組を教師データとする、教師あり学習を実施することにより、学習モデルを構築してもよい。この場合においては、ユーザ識別装置30の識別部32は1つだけ存在し、1つの識別部32が1つの学習モデルを用いることにより、作業者の識別情報の正否を判定することとなる。
<変形例3>
また、本実施形態における機械学習時に用いられる教師データとして、ログイン時(本番の操作を許可する前)に、作業者に、予め設定されたルーチン操作を実行させることで得られる当該ルーチン操作に係る操作信号の測定値から算出される特徴量を、教師データのラベルとしたが、これに限定されない。
例えば、機械学習装置10において、ログイン後(本番の操作を許可された後)における作業者の教示操作盤25に係る実際の操作に基づいて算出される特徴量を、教師データのラベルとして使用してもよい。
図7は、実際の操作に基づいて算出される特徴量を、教師データのラベルとして使用する際の、機械学習装置10、制御装置20、及びユーザ識別装置30の間でのデータの流れを示す。なお、機械学習装置10の構成は、図2に記載の機械学習装置10の構成と同一であり、及び制御装置20の構成は、図2及び図4に記載の制御装置20の構成と同一であり、ユーザ識別装置30の構成は、図4に記載のユーザ識別装置30の構成と同一である。
作業者が、教示操作盤25を操作することにより、ロボット50を操作する際、この操作に係る操作信号に基づいて、制御装置20の特徴量算出部21が特徴量を算出する。更に、特徴量算出部21は、この特徴量を機械学習装置10の入力部11に送信する。また、実際の作業中である、すなわち、作業者は制御装置20にログイン済みであるため、機械学習装置10のラベル取得部12は、操作中の作業者に対応するラベルを取得する。学習部12は、これら特徴量とラベルとの組を教師データとして用いることにより、学習モデルをアップデートするように構成することができる。さらに、学習部12は、アップデートした学習モデルをユーザ識別装置30の識別部32に送信することができる。ユーザ識別装置30の識別部32は、取得部31が、制御装置20の特徴量算出部21から取得した特徴量と、アップデートされた学習モデルとを用いて、作業者を識別することが可能となる。
これにより、作業者が教示操作盤25を操作する度に、作業者を識別するパターンをアップデートすることができ、パターンの固有性を高めることができる。
<変形例4>
また、本実施形態におけるユーザ識別時の動作として、ログイン時に作業者を識別するとしたが、これに限定されない。
例えば、ログイン後(本番の操作を許可された後)のロボット50の操作中に、作業者が、ロボット50を操作する際の、教示操作盤25に係る操作により生成された操作信号から、制御装置20の特徴量算出部21が特徴量を算出し、ユーザ識別装置30の取得部31がこの特徴量を取得し、ユーザ識別装置30の識別部32が、この特徴量を用いてユーザ識別処理を実行するようにしてもよい。例えば、ログイン後に作業者の作業中に、特徴量算出部21が、それまでの作業における所定の操作量に基づいて、当該作業者に係る特徴量を算出し、識別部32が、この特徴量を用いて、作業者を再度識別してもよい。仮に、当該作業者をログイン時に認証した者として認証できなかった場合、制御装置20の操作無効化部33が、教示操作盤25に係る操作を無効とするようにしてもよい。また、教示操作盤25に係る操作を無効とするのに加えて/又は制御装置20の警報部34が警報を発報してもよい。
そうすることで、例えば、ログイン時に成りすましを行った作業者を誤って認証した場合であっても、作業者の普段の癖等が本番時に出ることにより、成りすましを発見することが可能となる。
<変形例5>
また、本実施形態におけるログイン時のユーザ識別時の動作として、ユーザ識別装置30の取得部31は、作業者の識別情報(ユーザID)を取得し、識別部32が、この識別情報(ユーザID)の正否について、制御装置20から受信した特徴量に基づいて、識別するとしたが、これに限定されない。
例えば、ログイン時のユーザ識別時の動作として、作業者の識別情報(ユーザID)を入力せず、すなわち、ユーザ識別装置30の取得部31は、作業者の識別情報(ユーザID)を取得せずに、制御装置20から受信した特徴量のみに基づいて、当該作業者を識別するようにしてもよい。
ユーザ識別装置30は、例えば当該作業者を作業者Aとして認証した場合、教示表示盤25にその旨を表示するようにしてもよい。
そうすることで、ログイン時のユーザIDの入力を省略することができる。
<変形例6>
また、本実施形態におけるユーザ識別システム100において、ユーザ識別装置30は、教示操作盤25及び機械学習装置10の各々と別体であるとしたが、これに限定されない。
例えば、ユーザ識別システム100の構成として、ユーザ識別装置30と教示操作盤25が一体の装置として実現されるようにしてもよい。あるいは、ユーザ識別装置30と機械学習装置10が一体の装置として実現されるようにしてもよい。あるいは、機械学習装置10の機能の一部又は全部を、制御装置20により実現してもよい。あるいは、ユーザ識別装置30の機能の一部又は全部を、制御装置20により実現してもよい。
更に、上述した実施形態では、機械学習装置10を、学習を行う機能と、学習モデルを記憶する機能とを有するものとしたが、学習を行う機能と、学習モデルを記憶する機能とを別の装置で行うようにしてもよい。
なお、上記のユーザ識別システム100に含まれる各装置は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。また、上記のユーザ識別システム100に含まれる各装置により行なわれるユーザ識別方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
10 機械学習装置
11 入力部
12 ラベル取得部
13 学習部
14 学習モデル記憶部
20 制御装置
21 特徴量算出部
22 ログイン処理部
23 操作無効化部
24 警報部
25 教示操作盤
26 電源スイッチ
27 表示器
28 キースイッチ
29A 29B デッドマンスイッチ
30 ユーザ識別装置
31 取得部
32 識別部
50 ロボット
100 ユーザ識別システム

Claims (14)

  1. ロボット制御装置の作業者を認証するためのユーザ識別を行う学習モデルを構築する機械学習装置であって、
    予め設定された前記ロボット制御装置の教示操作盤に係る操作を前記作業者に行わせることにより検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを、入力データとして取得する入力データ取得手段と、
    前記作業者の識別情報をラベルとして取得するラベル取得手段と、
    前記入力データと前記ラベルとの組を教師データとして教師あり学習を行うことにより、前記ロボット制御装置の作業者を認証するためのユーザ識別を行う学習モデルを構築する学習手段と、
    を備える機械学習装置。
  2. 前記教示操作盤は、
    前記教示操作盤の備える表示器に、前記予め設定された前記ロボット制御装置の教示操作盤に係る操作のガイダンスを表示する、請求項1に記載の機械学習装置。
  3. 前記予め設定された前記ロボット制御装置の教示操作盤に係る操作は、前記作業者が作業時に実際に前記教示操作盤を使用する際の操作を含む、請求項1又は請求項2のいずれかに記載の機械学習装置。
  4. 前記入力データ取得手段は、前記測定値から得られる特徴量を前記操作データとして取得する、請求項1〜請求項3のいずれか1項に記載の機械学習装置。
  5. 前記特徴量は、前記作業者の前記操作に基づく、前記教示操作盤により検知される前記教示操作盤の操作手順、前記教示操作盤が備える各キースイッチの使用頻度、前記教示操作盤が備えるデッドマンスイッチの使用頻度、前記教示操作盤が検出する振動、前記教示操作盤が検出する加速度、前記教示操作盤の操作時の機体の傾き、前記教示操作盤のタッチパネルが検知する筆圧のうち、少なくとも1つに関する、請求項4に記載の機械学習装置。
  6. 前記入力データ取得手段は、さらに、
    本番時における前記作業者の教示操作盤に係る実際の操作により検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを入力データとして取得し、
    前記ラベル取得手段は、さらに、
    当該作業者の識別情報をラベルとして取得し、
    前記学習手段は、さらに、
    前記入力データと前記ラベルとの組を教師データとして教師あり学習を行うことで、前記学習モデルを更新する、請求項1〜請求項5のいずれか1項に記載の機械学習装置。
  7. 請求項1〜請求項6までのいずれか1項に記載の機械学習装置で構築した前記学習モデルを用いたユーザ識別装置であって、
    前記予め設定された前記教示操作盤に係る操作を前記作業者に行わせることにより検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを取得する操作データ取得手段と、
    前記操作データと前記学習モデルとに基づいて、前記作業者を識別する作業者識別手段と、
    を備えるユーザ識別装置。
  8. 前記操作データ取得手段は、さらに、
    前記作業者が本番時に前記教示操作盤に係る実際の操作を実行中に、前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを取得し、
    前記作業者識別手段は、さらに、
    前記操作データと前記学習モデルとに基づいて、前記作業者の識別情報が正しいか否かを判断する、請求項7に記載のユーザ識別装置。
  9. 前記教示操作盤に組み込まれ、前記教示操作盤と一体となった、請求項7又は請求項8のいずれか1項に記載のユーザ識別装置。
  10. 請求項1〜請求項6までのいずれか1項に記載の機械学習装置と、
    前記予め設定された前記教示操作盤に係る操作を前記作業者に行わせることにより検出される前記作業者の少なくとも身体の一部の動き及び身体の形状に関連する測定値を含む操作データを取得する操作データ取得手段と、
    前記操作データと、前記機械学習装置で構築した前記学習モデルとに基づいて、前記作業者を識別する作業者識別手段と、
    を備えるユーザ識別装置。
  11. 請求項7又は請求項8に記載のユーザ識別装置と、
    前記機械学習装置と、
    前記ロボット制御装置と、
    前記教示操作盤と、を備えるユーザ識別システム。
  12. 前記作業者識別手段が、前記作業者の識別情報が否であると判断した場合に、前記教示操作盤に係る操作を無効とする操作無効化手段を、前記ロボット制御装置がさらに備える、請求項11に記載のユーザ識別システム。
  13. 前記作業者識別手段が、前記作業者の識別情報が否であると判断した場合に、警報を発報する警報手段を、前記ロボット制御装置がさらに備える、請求項11又は請求項12に記載のユーザ識別システム。
  14. 前記作業者識別手段が、前記作業者の識別情報の正否を判断できなかった場合に、前記機械学習装置は、作業者の身体的差異に係る特徴量を算出するために用いることが可能な、さらなる操作データを用いて、さらなる学習モデルを構築し、
    前記作業者識別手段は、さらなる操作データと、さらなる学習モデルとに基づいて、前記作業者を再度識別する、請求項11〜請求項13のいずれか1項に記載のユーザ識別装置。
JP2017146715A 2017-07-28 2017-07-28 機械学習装置、及びユーザ識別装置 Active JP6577532B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017146715A JP6577532B2 (ja) 2017-07-28 2017-07-28 機械学習装置、及びユーザ識別装置
US16/018,177 US10614369B2 (en) 2017-07-28 2018-06-26 Machine learning device and user identification device
DE102018210957.5A DE102018210957B4 (de) 2017-07-28 2018-07-04 Maschinelle Lernvorrichtung und Benutzeridentifikationsvorrichtung
CN201810834920.1A CN109304714B (zh) 2017-07-28 2018-07-26 机器学习装置以及用户识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146715A JP6577532B2 (ja) 2017-07-28 2017-07-28 機械学習装置、及びユーザ識別装置

Publications (2)

Publication Number Publication Date
JP2019025582A true JP2019025582A (ja) 2019-02-21
JP6577532B2 JP6577532B2 (ja) 2019-09-18

Family

ID=65004413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146715A Active JP6577532B2 (ja) 2017-07-28 2017-07-28 機械学習装置、及びユーザ識別装置

Country Status (4)

Country Link
US (1) US10614369B2 (ja)
JP (1) JP6577532B2 (ja)
CN (1) CN109304714B (ja)
DE (1) DE102018210957B4 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7050006B2 (ja) * 2017-06-28 2022-04-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 移動体制御装置、移動体制御方法、及び学習方法
US10332367B1 (en) * 2018-10-17 2019-06-25 Capital One Services, Llc Systems and methods for using haptic vibration for inter device communication
JP7252787B2 (ja) * 2019-02-28 2023-04-05 川崎重工業株式会社 機械学習モデル運用管理システム及び機械学習モデル運用管理方法
JP7137150B2 (ja) * 2019-03-14 2022-09-14 オムロン株式会社 動作分析装置、動作分析方法及び動作分析プログラム
JP7088871B2 (ja) * 2019-03-29 2022-06-21 ファナック株式会社 検査装置、検査システム、及びユーザインタフェース
US11947644B2 (en) * 2019-10-08 2024-04-02 UiPath, Inc. Facial recognition framework using deep learning for attended robots
DE102022109047A1 (de) 2022-04-13 2023-10-19 B-Horizon GmbH Verfahren zum automatischen Anpassen des Verhaltens eines mobilen Benutzerendgeräts, insbesondere zur Messung von Druck, Gas und/oder Feuchtigkeit auf Basis einer Umgebungsfeuchtigkeit

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171926A (ja) * 1996-12-11 1998-06-26 Kiyadeitsukusu:Kk 手書き文字の照合方法および装置
JP2000132514A (ja) * 1998-10-21 2000-05-12 Hitachi Ltd 個人認証方法
JP2001231765A (ja) * 2000-02-21 2001-08-28 Axiom Co Ltd 筆記判別システム、筆記判別用筆記具、および筆記判別方法
JP2002042137A (ja) * 2000-07-25 2002-02-08 Seiichiro Hanya 認証システム
JP2002239953A (ja) * 2001-02-13 2002-08-28 Matsushita Electric Ind Co Ltd 産業用ロボット
JP2004243472A (ja) * 2003-02-14 2004-09-02 Yaskawa Electric Corp 操作装置および産業用ロボット
JP2015144026A (ja) * 2011-08-02 2015-08-06 クアルコム,インコーポレイテッド デバイスにおけるセキュリティ強化のために多要素パスワードまたは動的パスワードを使うための方法および装置
JP2015153143A (ja) * 2014-02-14 2015-08-24 株式会社日立システムズ 入館管理システム
US20150273704A1 (en) * 2014-03-28 2015-10-01 Fanuc Corporation Robot system for determining operator by biometric authentication
JP2016031704A (ja) * 2014-07-30 2016-03-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 認証装置、プログラム及び方法
JP2016144051A (ja) * 2015-02-02 2016-08-08 国立大学法人 鹿児島大学 携帯端末装置及びその認証処理方法
JP2017058850A (ja) * 2015-09-15 2017-03-23 トヨタ車体株式会社 個体認証システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001277166A (ja) 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
JP4443299B2 (ja) 2004-05-13 2010-03-31 富士通株式会社 ネットワークロボットによるサービス提供システム
KR100645379B1 (ko) 2004-10-29 2006-11-15 삼성광주전자 주식회사 로봇 제어 시스템 및 로봇 제어방법
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム
US10032137B2 (en) * 2015-08-31 2018-07-24 Avaya Inc. Communication systems for multi-source robot control
JP6426565B2 (ja) 2015-09-03 2018-11-21 ファナック株式会社 作業者に応じて機械の操作情報を表示器に表示させる機械制御システム
US10452816B2 (en) * 2016-02-08 2019-10-22 Catalia Health Inc. Method and system for patient engagement
CN106203019B (zh) 2016-07-21 2019-12-24 北京光年无限科技有限公司 一种用于机器人的用户身份验证方法及机器人
US10108850B1 (en) * 2017-04-24 2018-10-23 Intel Corporation Recognition, reidentification and security enhancements using autonomous machines

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171926A (ja) * 1996-12-11 1998-06-26 Kiyadeitsukusu:Kk 手書き文字の照合方法および装置
JP2000132514A (ja) * 1998-10-21 2000-05-12 Hitachi Ltd 個人認証方法
JP2001231765A (ja) * 2000-02-21 2001-08-28 Axiom Co Ltd 筆記判別システム、筆記判別用筆記具、および筆記判別方法
JP2002042137A (ja) * 2000-07-25 2002-02-08 Seiichiro Hanya 認証システム
JP2002239953A (ja) * 2001-02-13 2002-08-28 Matsushita Electric Ind Co Ltd 産業用ロボット
JP2004243472A (ja) * 2003-02-14 2004-09-02 Yaskawa Electric Corp 操作装置および産業用ロボット
JP2015144026A (ja) * 2011-08-02 2015-08-06 クアルコム,インコーポレイテッド デバイスにおけるセキュリティ強化のために多要素パスワードまたは動的パスワードを使うための方法および装置
JP2015153143A (ja) * 2014-02-14 2015-08-24 株式会社日立システムズ 入館管理システム
US20150273704A1 (en) * 2014-03-28 2015-10-01 Fanuc Corporation Robot system for determining operator by biometric authentication
JP2015188990A (ja) * 2014-03-28 2015-11-02 ファナック株式会社 生体認証により作業者を判別するロボットシステム
JP2016031704A (ja) * 2014-07-30 2016-03-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 認証装置、プログラム及び方法
JP2016144051A (ja) * 2015-02-02 2016-08-08 国立大学法人 鹿児島大学 携帯端末装置及びその認証処理方法
JP2017058850A (ja) * 2015-09-15 2017-03-23 トヨタ車体株式会社 個体認証システム

Also Published As

Publication number Publication date
US10614369B2 (en) 2020-04-07
JP6577532B2 (ja) 2019-09-18
DE102018210957B4 (de) 2021-05-12
CN109304714B (zh) 2020-08-07
CN109304714A (zh) 2019-02-05
US20190034818A1 (en) 2019-01-31
DE102018210957A1 (de) 2019-01-31

Similar Documents

Publication Publication Date Title
JP6577532B2 (ja) 機械学習装置、及びユーザ識別装置
CN104950702B (zh) 通过生物认证来判别操作员的机器人系统
US20150371023A1 (en) Usage modeling
KR101698679B1 (ko) 가시광 통신을 이용한 출입 제어 장치 및 방법
KR20210095282A (ko) 사용자 인증 방법 및 이 방법을 실행하는 디바이스
EP3475505B1 (en) Systems and methods for implementing a proximity lock using bluetooth low energy
CN107153459B (zh) 手势反馈系统
CN104765461A (zh) 一种控制方法及电子设备
JP2018181320A (ja) 家庭用機器の無線ホームネットワークとの接続方法
JP2020083535A (ja) 通知システム
CN109995751B (zh) 上网设备标记方法、装置及存储介质、计算机设备
CN105530636B (zh) 用于建立虚拟拴系的方法、装置及系统
KR20120076537A (ko) 전기자동차용 충전기 및 그 제어방법
CN108415387A (zh) 一种安全控制系统及安全控制方法
KR20210138477A (ko) 온라인 시험을 제공하는 전자 장치 및 그 방법
KR20190105767A (ko) 사용자의 터치 인터랙션과 연관된 센싱 데이터를 처리하는 방법 및 장치
CN107360140B (zh) 一种带指纹识别功能的触控单兵通讯装置
CN209689664U (zh) 一种用于幼儿园安全的监测装置
KR102062872B1 (ko) 인공지능형 공압식 방충재의 관리 시스템
CN109117033A (zh) 界面显示方法、移动终端及计算机可读存储介质
CN107291224B (zh) 设备操控方法及设备操控装置
JP2011113215A (ja) 認証制御サーバ装置、認証データ更新方法、及び認証データ更新プログラム
JP2015052526A (ja) 触覚誘導支援方法、触覚誘導支援プログラム及び触覚誘導支援装置
EP4367588A1 (en) Method, authentication system, and computer program for authenticating a user for a service
CN205302322U (zh) 幼儿园接送管理系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180918

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181211

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6577532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150