JP2020181502A - 作業支援システムおよび作業支援方法ならびに作業支援装置 - Google Patents

作業支援システムおよび作業支援方法ならびに作業支援装置 Download PDF

Info

Publication number
JP2020181502A
JP2020181502A JP2019085820A JP2019085820A JP2020181502A JP 2020181502 A JP2020181502 A JP 2020181502A JP 2019085820 A JP2019085820 A JP 2019085820A JP 2019085820 A JP2019085820 A JP 2019085820A JP 2020181502 A JP2020181502 A JP 2020181502A
Authority
JP
Japan
Prior art keywords
information
product
worker
work
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019085820A
Other languages
English (en)
Other versions
JP7336872B2 (ja
Inventor
大介 金元
Daisuke Kanemoto
大介 金元
佐藤 秀昭
Hideaki Sato
秀昭 佐藤
満雄 田口
Mitsuo Taguchi
満雄 田口
龍二 東田
Ryuji Higashida
龍二 東田
明広 日下
Akihiro Kusaka
明広 日下
正史 長畑
Masashi Nagahata
正史 長畑
雄一 大橋
Yuichi Ohashi
雄一 大橋
茂 柘植
Shigeru Tsuge
茂 柘植
昌隆 佐伯
Masataka Saeki
昌隆 佐伯
裕貴 三浦
Hirotaka Miura
裕貴 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019085820A priority Critical patent/JP7336872B2/ja
Publication of JP2020181502A publication Critical patent/JP2020181502A/ja
Priority to JP2023134724A priority patent/JP2023153283A/ja
Application granted granted Critical
Publication of JP7336872B2 publication Critical patent/JP7336872B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)

Abstract

【課題】作業者が作業対象の製品を容易に特定できるようにして、作業者の負担を軽減させる。【解決手段】作業支援システム10は、作業者が操作可能な作業者端末100、作業者による作業を支援するための情報を作業者に提供する作業支援装置200、製品情報を含む過去の作業実績データが蓄積されたデータベース400を含むデータベース管理装置300を有する。作業支援装置200は、音声情報および画像情報の少なくとも一方の形態で作業者により入力された、作業で取り扱われる製品の特徴を含む製品特徴情報を取得し、製品の特徴に対応する製品情報をデータベース400に蓄積されている製品情報の中から抽出し、抽出された製品情報を含む製品候補情報を生成して作業者へ提供するように構成されている。【選択図】図1

Description

本発明は、作業者による作業を支援する作業支援システムおよび作業支援方法ならびに作業支援装置に関する。本発明は、作業者の熟練度に依らず、作業者の作業に係る負担を軽減させることが可能な作業支援システムおよび作業支援方法ならびに作業支援装置に関する。
各種の工場やプラント等において、製品の入庫や出荷等に伴う物流管理が行われている。従来の物流管理では、例えば製品の入庫や出荷等が行われた場合、製品の名称や品番等を特定して、製品情報や作業内容等をデータベースに入力する作業が行われる。
また、従来の物流管理において、作業者の作業に係る負担を軽減するために、作業者端末およびサーバ装置等により構成されるシステムが提案されている。例えば下記の特許文献1には、生成したユーザIDをデータベースに登録するとともに、ユーザ端末から対象物に関する少なくとも入庫依頼を受け付けて、入庫依頼に対応する入庫IDを生成し、ユーザIDと入庫IDとを少なくとも含む依頼IDを生成して、依頼IDをデータベースに登録するシステムが開示されている。このシステムでは、サーバ装置が依頼IDの表示されたラベル用データを生成してユーザ端末に送信し、ユーザに対して、ラベル用データを対象物に付けさせることによって、対象物と依頼IDとの関連付けを行うように構成されている。
特開2017−77788号公報
従来の物流管理では、例えば製品情報をデータベースに入力する作業が必要になる等、例えば、製品情報に熟知している必要があるとともに、データベースの入力項目等も熟知している必要がある。熟練した作業者であれば、例えば製品を見ただけで製品の名称や品番等を把握し、データベースへの入力をスムーズに行うことが可能かもしれない。しかしながら、昨今では、作業スキルの低い非熟練者、特に外国人の作業者等が増加していることから、熟練した作業者の負担が大きくなってきており、作業者の熟練度(作業スキル)に依存しない新たなシステムが求められている。
また、特許文献1に開示されているように個々の対象物にラベル用データを割り当てる方法は、作業者の負担を増大させるおそれがある。従来、作業者の負担を増大させることなく、例えば作業スキルの低い作業者等であっても作業対象の製品を容易に特定できる技術、さらには、作業対象の製品に対する作業実績をデータベース等に自動的に記録できる技術は実現されていない。
本発明は、上記の課題を解決するため、作業者が作業対象の製品を容易に特定することが可能となり、作業者の負担を軽減させることが可能となる作業支援システムおよび作業支援方法ならびに作業支援装置を提供することを目的とする。
1)本発明に係る作業支援システムは、上記目的を達成するため、作業者による作業を支援する作業支援システム(10)であって、前記作業者により入力された情報に基づき前記作業を支援するための情報を前記作業者に提供する作業支援装置(200)と、製品情報を含む過去の作業実績データが蓄積されたデータベース(400)を含むデータベース管理装置(300)と、を有し、前記作業支援装置は、音声情報および画像情報の少なくとも一方の形態で前記作業者により入力された、前記作業で取り扱われる製品の特徴を含む製品特徴情報を取得する製品特徴情報取得部(201)と、前記画像情報の形態で入力された前記製品特徴情報に対して画像解析処理を行う画像解析部(205)と、前記音声情報の形態で入力された前記製品特徴情報に対して音声解析処理を行う音声解析部(203)と、前記画像解析部および前記音声解析部の少なくとも一方により処理された前記製品特徴情報から前記製品の特徴を特定し、前記製品の特徴に対応する製品情報を前記データベースに蓄積されている製品情報の中から抽出する製品情報抽出部(207)と、前記製品情報抽出部により抽出された前記製品情報を含む製品候補情報を生成する製品候補情報生成部(210)と、前記製品候補情報生成部により生成された前記製品候補情報を前記作業者へ提供する製品候補情報提供部(201)と、を備えることを特徴とする。
この構成により、作業者により入力された製品の特徴を表す音声または画像から、作業者が取り扱っている製品を特定して、その製品情報を作業者に提供するため、例えば作業スキルの低い作業者等であっても作業対象の製品を容易に特定することが可能となり、作業者の負担を軽減させることが可能となる。特に、作業者は、作業で取り扱っている製品の特徴を音声で入力するか、あるいは製品の特徴を表す画像を撮影するという簡単な操作を行うだけで製品の特徴に対応する製品情報を容易に得ることが可能となり、製品情報を確実に把握することが可能となる。また、作業や製品に不慣れな作業者であっても、他の熟練作業者等の助けを借りることなく製品情報を容易かつ確実に得ることが可能となり、作業に従事している作業者だけではなく、他の熟練作業者の負担も軽減させることが可能となる。
2)また、本発明に係る作業支援システムでは、前記製品情報抽出部は、機械学習を用いた推定処理により前記製品の特徴に対応する製品情報を推定することを特徴とする。
この構成により、機械学習を用いた推定を利用することで、作業者により入力された製品の特徴を表す音声または画像から高い精度で製品情報を推定することが可能となる。
3)また、本発明に係る作業支援システムでは、前記作業支援装置は、前記製品候補情報として、前記製品情報に含まれる前記画像情報を拡張現実画像として再生可能とする拡張現実データを生成する拡張現実データ生成部(211)を備えることを特徴とする。
この構成により、製品情報を拡張現実データとして作業者に提供することが可能となり、作業者は、例えばディスプレイ上に自動再生される拡張現実データを視認するだけで、製品情報を確実に把握することが可能となる。
4)また、本発明に係る作業支援システムでは、前記製品情報抽出部は、前記製品特徴情報が前記画像情報である場合には前記画像解析処理により得られた画像情報と合致する画像情報を含む製品情報を抽出し、前記製品特徴情報が前記音声情報である場合には前記音声解析処理により得られた製品名称と合致する画像情報を含む製品情報を抽出することを特徴とする。
この構成により、作業者が製品の特徴を音声で入力した場合、あるいは製品の特徴を表す画像を撮影した場合のどちらであっても、その製品の特徴と合致する画像情報を特定して、その画像情報を作業者へ提供することが可能となる。作業者は、音声または画像による製品の特徴を入力するだけで、その製品に対応した製品情報を画像情報として得ることが可能となり、製品情報を確実に把握することが可能となる。
5)また、本発明に係る作業支援システムでは、前記作業支援装置は、前記製品の特徴に対応する製品情報に含まれる前記テキスト情報を音声情報に変換する音声合成部(209)を備えることを特徴とする。
この構成により、製品情報に含まれるテキスト情報を読み上げ音声として作業者に提供することが可能となる。作業者は、音声または画像による製品の特徴を入力するだけで、その製品に対応した製品情報の読み上げ音声を聞いて製品情報を得ることが可能となり、製品情報を確実に把握することが可能となる。
6)また、本発明に係る作業支援システムでは、前記作業支援装置は、前記音声情報に含まれる音声を別の言語の音声に変換する音声翻訳部(204)を備えることを特徴とする。
この構成により、作業者の使用言語と日本語とを相互に変換することが可能となる。例えば外国人の作業者が母国語で音声入力した場合であっても日本語の製品情報を特定することが可能となる。また、日本語の製品情報を作業者の母国語の音声に変換して、作業者へ提供することが可能となる。これにより、作業者は言語の壁を感じることなく製品情報を確実に把握することが可能となる。
7)また、本発明に係る作業支援システムでは、前記作業者が操作可能な作業者端末(100)を有し、前記作業者端末は、前記作業者による音声入力および画像撮影に係る前記音声情報および前記画像情報を前記作業支援装置へ即時送信し、前記作業支援装置から提供された前記製品候補情報を即時出力することを特徴とする。
この構成により、作業者は作業者端末上で複雑な操作を行うことなく、例えば製品の特徴を発語したり製品に対してカメラを向けたりするだけで、製品の特徴を含む情報が作業支援装置へ自動的に送られ、作業者端末に提供される製品候補情報が自動的に作業者端末で出力されるため、作業者に対して作業者端末の複雑な操作を強いることなく、作業者の操作負担を減らすことが可能となる。
8)また、本発明に係る作業支援システムでは、前記作業支援装置は、音声情報の形態で前記作業者により入力された、前記製品候補情報が前記製品に適切に対応しているか否かを示す適否情報を取得する適否情報取得部(212)を備えることを特徴とする。
この構成により、作業者から適否情報を得ることで、作業者に対して提供した製品情報が適切であったか否かを判定することが可能となる。
9)また、本発明に係る作業支援システムでは、前記データベース管理装置は、前記適否情報において前記製品候補情報が前記製品に適切に対応することが示されている場合には、前記製品候補情報として前記作業者に提供した前記製品情報を、前記作業者による作業で取り扱われている製品の製品情報として作業内容とともに前記データベースに登録するデータベース登録部(301)を備えることを特徴とする。
この構成により、作業者に対して提供した製品情報が適切であった場合、作業者が現在その製品を作業対象として作業を行っていることを作業内容とともにデータベースに即時登録することが可能となる。
10)また、本発明に係る作業支援システムでは、前記データベース管理装置は、前記データベースに登録された前記作業者による作業で取り扱われている製品の製品情報と前記作業内容とに基づく分析レポートを出力する分析レポート出力部(302)を備えることを特徴とする。
この構成により、作業者の作業対象とした製品および作業内容に基づいて、業務管理において必要な様々な項目を含む分析レポートを容易かつ正確に作成することが可能となる。
11)また、本発明に係る作業支援システムでは、前記製品候補情報生成部は、前記適否情報において前記製品候補情報が前記製品に適切に対応していないことが示されている場合には、新たな製品情報を含む製品候補情報を生成することを特徴とする。
この構成により、作業者に対して提供した製品情報が適切ではなかった場合であっても、作業者は、再生成された製品候補情報を確認することで、適切な製品情報を得ることが可能となる。
12)また、本発明に係る作業支援システムでは、前記製品情報抽出部は、前記適否情報に基づいて、前記データベースから前記製品の特徴に対応する製品情報を抽出する際の抽出精度を向上させることを特徴とする。
この構成により、作業者から得た適否情報に基づいて、次回以降の製品情報の抽出処理における精度を向上させることが可能となる。
13)また、本発明に係る作業支援システムでは、前記作業支援装置は、音声情報の形態で前記作業者により入力された、前記作業の内容を表す作業内容情報を取得する作業内容抽出部(206)を備えることを特徴とする。
この構成により、作業者が入力した作業の内容を表す音声から、作業者が行っている作業の内容を特定することが可能となる。また、作業者は、作業の内容を音声で入力するという簡単な操作により作業の内容を通知することが可能となる。
14)また、本発明に係る作業支援システムでは、前記作業支援装置は、前記作業内容情報に対応する作業で取り扱われる製品の特徴を入力するよう前記作業者へ指示する入力指示部(208)を備えることを特徴とする。
この構成により、作業者が行っている作業の内容を特定したうえで、その作業で取り扱っている製品の特徴を入力するよう作業者に指示することが可能となる。
15)また、本発明に係る作業支援方法は、上記目的を達成するため、作業者による作業を支援する作業支援装置(200)により実行される作業支援方法であって、音声情報および画像情報の少なくとも一方の形態で前記作業者により入力された、前記作業で取り扱われる製品の特徴を含む製品特徴情報を取得することと、前記製品特徴情報が前記画像情報である場合には画像解析処理を行い、前記製品特徴情報が前記音声情報である場合には音声解析処理を行うことと、前記画像解析処理および前記音声解析処理の少なくとも一方により処理された前記製品特徴情報から前記製品の特徴を特定し、前記製品の特徴に対応する製品情報を、過去の作業実績データが蓄積されたデータベースに格納されている製品情報の中から抽出することと、抽出された前記製品情報を含む製品候補情報を前記作業者へ提供することと、を有することを特徴とする作業支援方法。
この動作により、作業者により入力された製品の特徴を表す音声または画像から、作業者が取り扱っている製品を特定して、その製品情報を作業者に提供するため、例えば作業スキルの低い作業者等であっても作業対象の製品を容易に特定することが可能となり、作業者の負担を軽減させることが可能となる。特に、作業者は、作業で取り扱っている製品の特徴を音声で入力するか、あるいは製品の特徴を表す画像を撮影するという簡単な操作を行うだけで製品の特徴に対応する製品情報を容易に得ることが可能となり、製品情報を確実に把握することが可能となる。また、作業や製品に不慣れな作業者であっても、他の熟練作業者等の助けを借りることなく製品情報を容易かつ確実に得ることが可能となり、作業に従事している作業者だけではなく、他の熟練作業者の負担も軽減させることが可能となる。
16)また、本発明に係る作業支援装置は、上記目的を達成するため、作業者により入力された情報に基づき前記作業者による作業を支援する作業支援装置(200)であって、音声情報および画像情報の少なくとも一方の形態で前記作業者により入力された、前記作業で取り扱われる製品の特徴を含む製品特徴情報を取得する製品特徴情報取得部(201)と、前記画像情報の形態で入力された前記製品特徴情報に対して画像解析処理を行う画像解析部(205)と、前記音声情報の形態で入力された前記製品特徴情報に対して音声解析処理を行う音声解析部(203)と、前記画像解析部および前記音声解析部の少なくとも一方により処理された前記製品特徴情報から前記製品の特徴を特定し、前記製品の特徴に対応する製品情報を、過去の作業実績データが蓄積されたデータベースに蓄積されている製品情報の中から抽出する製品情報抽出部(207)と、前記製品情報抽出部により抽出された前記製品情報を含む製品候補情報を生成する製品候補情報生成部(210)と、前記製品候補情報生成部により生成された前記製品候補情報を前記作業者へ提供する製品候補情報提供部(201)と、を有することを特徴とする。
この構成により、作業者により入力された製品の特徴を表す音声または画像から、作業者が取り扱っている製品を特定して、その製品情報を作業者に提供するため、例えば作業スキルの低い作業者等であっても作業対象の製品を容易に特定することが可能となり、作業者の負担を軽減させることが可能となる。特に、作業者は、作業で取り扱っている製品の特徴を音声で入力するか、あるいは製品の特徴を表す画像を撮影するという簡単な操作を行うだけで製品の特徴に対応する製品情報を容易に得ることが可能となり、製品情報を確実に把握することが可能となる。また、作業や製品に不慣れな作業者であっても、他の熟練作業者等の助けを借りることなく製品情報を容易かつ確実に得ることが可能となり、作業に従事している作業者だけではなく、他の熟練作業者の負担も軽減させることが可能となる。
本発明によれば、作業者が作業対象の製品を容易に特定することが可能となり、作業者の負担を軽減させることが可能となる作業支援システムおよび作業支援方法ならびに作業支援装置を提供することができる。
本発明の実施の形態における作業支援システムの構成の一例を示すブロック図である。 本発明の実施の形態における作業支援システムの第1フェーズに係る処理の一例を示すシーケンスチャートである。 本発明の実施の形態における作業支援システムの第2フェーズに係る処理の一例を示すシーケンスチャートである。 本発明の実施の形態における作業支援システムの第3フェーズに係る処理の一例を示すシーケンスチャートである。 本発明の実施の形態における作業支援システムに係る処理によって更新されるデータベースの一例を示す図である。 本発明の実施の形態における作業支援システムから出力される分析レポートの表示画面の一例を示す図である。 本発明の実施の形態における作業支援システムから出力される製品特徴情報の表示画面の一例を示す図である。
以下、図面を参照しながら、本発明の実施の形態について説明する。
本発明の実施の形態における作業支援システム10は、作業者による作業を支援するシステムである。より詳細には、作業支援システム10は、作業現場の作業者が作業者端末100から作業対象の製品の特徴を音声や画像で入力して作業支援装置200へ送信することで、作業支援装置200において、その製品の特徴に合致した製品情報をデータベース400から抽出して作業者へ提供することで、作業者が作業対象の製品の製品情報を容易に特定できるようにするものである。
本明細書における作業とは、例えば倉庫に製品を入庫する作業や倉庫から製品を出荷する作業等のように、製品の物流に係る作業を意味する。また、本明細書における製品とは作業者が作業において取り扱う物品全般を意味する。本発明の実施の形態における作業支援システム10は、特に、作業者による作業に伴って、作業者によって取り扱われている製品を特定するとともに作業者による作業内容をデータベース400に登録することで、作業実績の管理を行うシステムに利用可能である。
図1は、本発明の実施の形態における作業支援システムの構成の一例を示すブロック図である。
図1に示す作業支援システム10は、作業者による作業を支援するシステムである。作業支援システム10は、作業者が操作可能な作業者端末100と、作業者端末100で作業者により入力された情報に基づき、作業を支援するための情報を作業者端末100に提供する作業支援装置200と、製品情報を含む過去の作業実績データが蓄積されたデータベース400を含むデータベース管理装置300とを有する。
作業者端末100は、通信部101、カメラ102、マイクロホン103、タッチパネルディスプレイ104、スピーカ105、作業支援動作制御部106を有する。
通信部101は、無線通信機能または有線通信機能を有し、任意の通信方式で他の装置と通信を行う機能を有する。通信部101は、例えばネットワーク150を通じて作業支援装置200と通信を行うように構成されている。本発明の実施の形態では、通信部101は、カメラ102で撮影された画像情報やマイクロホン103で収音された音声情報を作業支援装置200へ送信する機能を有する。また、本発明の実施の形態では、通信部101は、入力指示情報や製品候補情報等を含む様々な情報を作業支援装置200から受信する機能を有する。
カメラ102は、例えば光学レンズやイメージセンサ等により構成され、静止画像および動画像を含む画像情報を生成する機能を有する。本発明の実施の形態では、作業者がカメラ102の撮影方向を作業者の周辺に存在する製品に向けて撮影操作を行うことで、製品の撮影画像を含むデジタルデータ形式の画像情報をカメラ102によって生成することが可能である。
マイクロホン103は、例えば増幅器、ADC(アナログデジタル変換器)、DSP(デジタル信号プロセッサ)等により構成され、周辺の音声を収音して音声情報を生成する機能を有する。本発明の実施の形態では、例えば作業内容、製品の特徴、製品候補情報に対する適否等を発話することで、これらの発話音声を含むデジタルデータ形式の音声情報をマイクロホン103によって生成することが可能である。
タッチパネルディスプレイ104は、操作入力機能および表示機能を兼ね備えており、作業者による操作入力を可能とする入力インタフェースと、画像情報やテキスト情報等を表示する表示インタフェースとが一体化された装置である。なお、図1に示す作業者端末100では、操作入力機能および表示機能の両方を有するタッチパネルディスプレイ104が設けられているが、マウスやキーボード等の入力操作装置と、ディスプレイ等の表示装置とが個別に設けられてもよい。
スピーカ105は、例えばDAC(デジタルアナログ変換器)、増幅器、振動子等により構成され、デジタルデータ形式の音声情報を音声波形として出力する機能を有する。スピーカ105は、ワイヤレスヘッドフォンや骨伝導ヘッドフォン等でもよく、あるいは、振動を発生する他の情報伝達手段であってもよい。
作業支援動作制御部106は、本発明に係る作業支援動作を制御する機能を有する。作業支援動作制御部106は、例えば、本発明に係る作業支援の動作を制御するための作業支援用プログラムが作業者端末100に搭載されているプロセッサにより実行されることで実現される。
作業者端末100は、プロセッサ、RAMやROM、ストレージ(補助記憶装置)等を有するコンピュータであり、小型で持ち運び可能なタブレット端末やスマートフォン等であってもよい。タブレット端末やスマートフォンに搭載されているハードウェアを用いて、上述した通信部101、カメラ102、マイクロホン103、タッチパネルディスプレイ104、スピーカ105が実現可能である。また、作業支援動作制御部106は、本発明に係る作業支援の動作がプログラミング言語で記述されたアプリケーション(作業支援用プログラム)をタブレット端末やスマートフォンにインストールすることによって実現可能である。
作業者端末100は、上述したようなタブレット端末やスマートフォン等のポータブルなスマートデバイスを単独で含む構成であってもよく、他の装置による構成または様々な装置を組み合わせた構成であってもよい。作業者端末100は、例えば、スマートデバイスと外部カメラ(スマートデバイスと有線あるいは無線で接続)とを含む構成、ヘッドマウントディスプレイ(HMD)を単独で含む構成、HMD(カメラ機能およびディスプレイ機能を含む)とスマートデバイスとを含む構成、HMDと外部カメラ(HMDと有線あるいは無線で接続)とを含む構成、スマートデバイスとノート型PC(作業支援動作制御部106を含む)とを含む構成等であってもよい。
図1には、作業者端末100が1台のみ図示されているが、複数台の作業者端末100が、それぞれネットワーク150を通じて作業支援装置200と通信を行うように構成されていてもよい。各作業者が各自の作業場において作業者端末100を操作することで、作業支援装置200から各自の作業に合った情報を受けられるようになっている。また、作業者端末100は、ネットワーク150を通じて作業支援装置200と通信を行うように構成されており、作業者端末100が配置される場所(すなわち、作業者が作業を行う作業場所)は、特定の場所に限定されるものではない。
作業支援装置200は、通信部201、音声/画像判定部202、音声解析部203、音声翻訳部204、画像解析部205、作業内容抽出部206、製品情報抽出部207、入力指示部208、音声合成部209、製品候補情報生成部210、AR(Augmented Reality:拡張現実)データ生成部211、適否情報取得部212を有する。
通信部201は、無線通信機能または有線通信機能を有し、任意の通信方式で他の装置と通信を行う機能を有する。通信部201は、例えばネットワーク150を通じて作業者端末100と通信を行うように構成されている。本発明の実施の形態では、通信部201は、カメラ102で撮影された画像情報や、マイクロホン103で収音された音声情報を作業者端末100から受信する機能(例えば製品特徴情報取得部としての機能)を有する。また、本発明の実施の形態では、通信部201は、入力指示情報や製品候補情報等を含む様々な情報を作業者端末100へ送信する機能(例えば製品候補情報提供部としての機能)を有する。
音声/画像判定部202は、作業者端末100から受信した情報が音声情報であるか画像情報であるかを判定する機能を有する。音声/画像判定部202は、作業者端末100から音声情報を受信した場合には音声解析部203へ出力し、画像情報を受信した場合には画像解析部205へ出力する。
音声解析部203は、音声情報を解析して更なる処理が可能となる状態に音声情報を加工する機能を有する。音声解析部203は、例えば、音声情報に含まれる作業内容を作業内容抽出部206により抽出することが可能な状態に加工する機能、音声情報に含まれる製品の特徴を製品情報抽出部207により抽出することが可能な状態に加工する機能、音声情報に含まれる製品候補情報に対する適否を適否情報取得部212により抽出することが可能な状態に加工する機能を有する。音声解析部203は、音声情報に含まれている音声の言語を解析する機能や、形態素解析および音声に含まれる意味を特定する音声認識を行う機能、音声情報とテキスト情報とを相互に変換する機能等を有する。
音声翻訳部204は、異なる言語間の翻訳を行う多言語翻訳機能を有している。音声翻訳部204は、音声解析部203による解析の結果、必要に応じて言語の翻訳を行うことが可能である。例えば、音声情報に日本語以外の言語が含まれている場合には、音声情報または音声を文字に変換したテキスト情報が音声解析部203から音声翻訳部204へ渡されて、音声翻訳部204において日本語への翻訳が行われるように構成されている。なお、どの言語へ翻訳するかは適宜設定することが可能である。
画像解析部205は、画像情報を解析して更なる処理が可能となる状態に音声情報を加工する機能を有する。画像解析部205は、例えば、画像情報に含まれる製品の特徴を製品情報抽出部207により抽出可能とした状態に加工する機能を有する。画像解析部205は、画像情報に含まれている画像のノイズを除去する機能、画像中の被写体領域を特定および抽出する機能、画像中の各画素のRGB値や輝度値等を抽出する機能等を有する。
作業内容抽出部206は、作業者が行う作業内容を含む作業内容情報を解析して、作業者が行う作業内容を特定する機能を有する。作業内容抽出部206は、例えば作業内容情報に含まれる「入庫」、「出荷」等の単語を認識することで、作業内容を特定することが可能である。さらに、作業内容抽出部206は、データベース管理装置300と協働して動作し、データベース400から、作業内容に対応する過去の蓄積情報を抽出する機能を有する。
本発明の実施の形態では、作業者が作業内容を発話してその発話音声が作業者端末100のマイクロホン103で収音され、作業内容情報が生成される。音声情報の形態で入力された作業内容を含む作業内容情報は、作業者端末100から作業支援装置200へ送信された後、音声/画像判定部202および音声解析部203による処理を経て作業内容抽出部206に供給される。
製品情報抽出部207は、作業者が行う作業で取り扱われる製品の特徴を含む製品特徴情報を解析して、製品の特徴を特定する機能を有する。さらに、製品情報抽出部207は、データベース管理装置300と協働して動作し、製品の特徴に対応する製品情報をデータベース400に蓄積されている製品情報の中から抽出する機能を有する。
本発明の実施の形態では、作業者が作業で取り扱われる製品の特徴を発話してその発話音声が作業者端末100のマイクロホン103で収音されるか、作業者が作業で取り扱われる製品をカメラ102で撮影して、製品特徴情報が生成される。音声情報の形態で入力された製品の特徴を含む製品特徴情報は、作業者端末100から作業支援装置200へ送信された後、音声/画像判定部202および音声解析部203による処理を経て製品情報抽出部207に供給される。画像情報の形態で入力された製品の特徴を含む製品特徴情報は、作業者端末100から作業支援装置200へ送信された後、音声/画像判定部202および画像解析部205による処理を経て製品情報抽出部207に供給される。製品情報抽出部207により抽出された製品の特徴に対応する製品情報は、製品候補情報生成部210へ供給される。
製品情報抽出部207は、検索処理または推定処理によって、製品の特徴に対応する製品情報を抽出するように構成されている。製品情報抽出部207は、例えば、製品特徴情報から製品の特徴を表す単語を抽出し、その単語を検索キーとして、データベース400に含まれる製品情報の中からその検索キーを含む製品情報を検索してもよく、画像のパターンマッチングを行って、データベース400に含まれる製品情報の中から製品特徴情報に含まれる画像情報と合致する画像情報を含む製品情報を検索してもよい。
さらに、製品情報抽出部207は、製品の特徴に対応する製品情報をデータベース400に蓄積されている製品情報の中から抽出する際に、製品の特徴に対応する可能性のある複数の製品情報を抽出してもよい。製品情報抽出部207は、製品の特徴に対応する製品情報を抽出する際に、例えば過去実績データにおける直近1週間で取引回数が多い製品等を抽出する等の所定条件に従って、製品の特徴に対応する可能性の最も高い製品情報を抽出するとともに、さらに、取引回数の多い所定数(例えば、上位10件)の製品の製品情報を抽出してもよい。このような製品情報の抽出に係る所定条件は、作業者が作業者端末100を操作して事前に設定できるようにしてもよく、作業支援装置200側が保持する設定情報によって設定されてもよい。
複数の製品情報を抽出した場合、作業支援装置200は、製品の特徴に対応する可能性の最も高い製品情報を製品候補情報として作業者へ提供するとともに、製品の特徴に対応する可能性の高い複数の製品情報を補足情報として提供することが可能となる。
また、複数の製品情報を抽出した場合、後述するように、製品の特徴に対応する可能性の最も高い製品情報を製品候補情報として作業者端末100へ提供し、適否情報として「適切ではない(NO)」という判定結果を受信した際には、複数の製品情報(既に製品候補情報として作業者に提供した製品を除く)の中から次に可能性の高い製品情報を選択し、新たな製品候補情報として作業者端末100へ提供してもよい。
また、製品情報抽出部207が機械学習による推定機能を有し、製品特徴情報を入力情報として適切な製品情報を推定できるようにしてもよい。製品情報抽出部207に機械学習による推定機能を実装させた場合、例えば学習フェーズにおいて、例えば音声情報に含まれる単語の集合や画像情報に含まれる画素のRGB値または輝度値等の入力に対して適切な製品情報を出力するように学習させる。この学習の結果、製品情報抽出部207は、推論フェーズにおいて、作業者が入力した音声情報や画像情報から作業で取り扱われている製品情報を精度良く出力することが可能となる。また、例えば、製品情報抽出部207を確率値の出力を伴う分類器によって構成することで、ある製品候補情報を入力情報とした推定結果として、複数の製品情報およびこれらの確率値を出力できるようにしてもよい。
なお、機械学習とは、人間に備わっている学習機能および予測機能をコンピュータで実現するための手法である。近年、機械学習の技術は、その応用である深層学習およびAI技術ならびにその他の類似技術等に展開され飛躍的に進歩している。本発明に適用可能な機械学習の技術は、現在利用可能な機械学習の技術のみならず、将来更なる進歩を遂げるであろう機械学習の技術およびその他の類似技術も含む。
入力指示部208は、作業者が行う作業で取り扱われる製品の特徴を入力するよう作業者へ指示する入力指示情報を生成する機能を有する。本発明の実施の形態では、入力指示部208は、作業内容抽出部206で作業者が行う作業内容を特定した場合、その作業に伴って取り扱われる製品の特徴を入力するよう指示する入力指示情報が生成される。入力指示情報が作業者端末100へ提供されると、作業者端末100において、例えば「製品情報を入力してください」等の音声が出力され、作業者に対して製品の特徴の入力を促すようになっている。
音声合成部209は、テキスト情報から音声情報を生成する機能、すなわち、音声合成処理によりテキストを読み上げ音声に変換する機能を有する。音声合成部209は、例えば、入力指示部208で生成された入力指示情報を音声情報に変換する機能、製品候補情報生成部210で生成された製品候補情報に含まれる製品の名称や説明等のテキスト情報を音声情報に変換する機能を有する。なお、入力指示情報は、例えば「製品情報を入力してください」等の定型文であり、当該定型文を含む音声情報をあらかじめ準備しておいてもよい。
音声合成部209は、音声情報を生成する際、作業者の使用する言語へ翻訳してもよい。例えば、日本語以外の言語に翻訳する必要がある場合には、テキスト情報またはテキスト情報から生成された音声情報が音声合成部209から音声翻訳部204へ渡されて、音声翻訳部204において日本語以外の言語への翻訳が行われる。
製品候補情報生成部210は、製品情報抽出部207により抽出された製品情報を含む製品候補情報を生成する機能を有する。製品候補情報生成部210で生成される製品候補情報は、作業者が入力した製品の特徴と合致する特徴を有すると製品情報抽出部207により判断された製品情報を含み、例えば製品の名称や説明等のテキスト情報や製品の外観を表す画像情報を含む。
製品候補情報に含まれる製品の名称や説明等のテキスト情報は、音声合成部209で音声情報に変換することが可能である。音声情報の形態に変換された製品候補情報が作業者端末100へ提供されると、作業者端末100において、その音声情報がスピーカ105から出力される。
また、製品候補情報に含まれる製品の名称や説明等のテキスト情報および製品の外観を表す画像情報は、後述するARデータ生成部211でARデータに加工することが可能である。ARデータの形態に変換された製品候補情報が作業者端末100へ提供されると、作業者端末100において、ARデータとして含まれるテキスト情報や画像情報が表示画面に重ねて表示(オーバレイ)される。
製品候補情報生成部210で生成された製品候補情報は、音声合成部209およびARデータ生成部211による処理を経て、音声情報およびARデータを含んだ状態で作業者端末100へ提供される。
ARデータ生成部211は、製品候補情報に含まれる製品の名称や説明等のテキスト情報および製品の外観を表す画像情報をARデータに加工するAR加工処理機能を有する。
本発明の実施の形態における製品候補情報に含まれるARデータは、例えば、作業者端末100において再生された場合には、タッチパネルディスプレイ104の表示画面において、カメラ102で撮影されている映像をリアルタイムに表示しながら、さらに製品候補情報に含まれる画像情報やテキスト情報を重畳表示可能とするものである。このとき、AR技術を用いることで、製品候補情報の画像情報やテキスト情報の表示位置および表示態様を制御することが可能である。
具体的には、例えばカメラ102でリアルタイムに撮影されている製品をマーカーとして、マーカーの近傍位置やマーカーに重畳した位置に製品候補情報の画像情報やテキスト情報を表示したり、表示画面の特定の範囲に製品候補情報の画像情報やテキスト情報をワイプ表示したりすることが可能である。また、製品候補情報の画像情報やテキスト情報の表示と同時に音声情報を再生する等、音声情報の再生タイミングを制御することも可能である。
また、ARデータは、作業者端末100において再生された場合に、上述した所定条件(例えば、過去実績データにおける直近1週間で取引回数が多い製品)に従って製品情報抽出部207により抽出された製品の特徴に対応する可能性の最も高い製品情報を作業者端末100の表示画面に表示するとともに、例えば上位10件の製品の製品情報のリストを補足情報として表示し、複数の製品情報のリストに含まれる製品情報を選択することで、選択した製品情報の詳細な内容を確認できるようにしてもよい。作業者は、このARデータの表示により、作業者による作業で取り扱われている可能性のある複数の製品情報を確認することが可能となる。
さらに、ARデータは、製品情報の3次元モデルデータを含んでいてもよい。作業者端末100において3次元モデルデータを含むARデータが再生された場合には、タッチパネルディスプレイ104の表示画面に、例えば回転、移動、拡大および縮小が自在に可能な製品の3次元モデルを表示することが可能である。作業者は、様々な表示態様で表示される製品の3次元モデルを確認することが可能となり、製品候補情報として提供された製品情報が、現在作業中の製品と一致するかどうかを確実に判断することが可能となる。
本発明の実施の形態では、ARデータを用いることで、作業者に対して製品候補情報を効果的に伝えることが可能である。上述したARデータの具体的な表示例は一例にすぎず、任意の再生態様を実現するARデータが用いられてもよい。なお、本発明はARデータの使用を必須とするものではなく、製品候補情報の画像情報、テキスト情報、音声情報は、任意の形式で作業支援装置200から作業者端末100へ提供されてもよい。
適否情報取得部212は、製品候補情報に対して作業者がその適否を判定した適否判定結果を含む適否情報を取得するとともに、適否判定結果に基づく動作制御を行う機能を有する。適否情報取得部212は、例えば適否情報に含まれる「YES」、「NO」等の単語を認識することで、適否判定結果を特定することが可能である。
本発明の実施の形態では、作業者は、作業者端末100において製品候補情報を確認した後、製品候補情報に対する適否判定結果を発話してその発話音声が作業者端末100のマイクロホン103で収音され、適否情報が生成される。音声情報の形態で入力された適否判定結果を含む適否情報は、作業者端末100から作業支援装置200へ送信された後、音声/画像判定部202および音声解析部203による処理を経て適否情報取得部212に供給される。
適否情報は、作業者が製品候補情報を確認した後、その製品候補情報が適切であったかどうか、すなわち製品候補情報の適否(YES/NO)を示す情報である。製品候補情報が適切であるとは、作業支援装置200から提供された製品候補情報が、作業者による作業で取り扱われている製品に対応したものであることを意味し、製品候補情報が適切ではないとは、作業支援装置200から提供された製品候補情報が、作業者による作業で取り扱われている製品に対応したものではないことを意味する。
製品候補情報が適切である場合には、作業者は「適切である(YES)」という判定結果を発話し、製品候補情報が適切ではない場合には、作業者は「適切ではない(NO)」という判定結果を発話して、この判定結果が音声情報の形態で作業者端末100から作業支援装置200へ送信される。
「適切である(YES)」という判定結果を含む適否情報を作業者端末100から受信した場合には、適否情報取得部212は、製品候補情報として作業者に提供した製品情報を、作業者による作業で取り扱われている製品の製品情報として登録するようデータベース管理装置300に指示する。
一方、「適切ではない(NO)」という判定結果を含む適否情報を作業者端末100から受信した場合には、適否情報取得部212は、製品情報抽出部207および製品候補情報生成部210に対して、作業で取り扱われている製品である可能性が高い別の製品情報を含む新たな製品候補情報を作業者端末100へ提供するよう指示する。すなわち、製品候補情報は適切ではなかったと作業者が判定した場合には、別の製品情報を含む新たな製品候補情報が作業者端末100へ再び提供されるようになっている。
データベース管理装置300は、データベース登録部301、分析レポート出力部302を有する。データベース管理装置300は、例えば、業務フローやデータベース等の管理を行う統合基幹業務システムの一機能により実現される。
データベース登録部301は、作業者による作業内容や作業で取り扱われた製品情報等をデータベース400へ登録する機能を有する。本発明の実施の形態では、データベース登録部301は、作業者により適切であると確認された製品候補情報に含まれる製品情報を、作業者による作業で取り扱われている製品の製品情報として登録する。
分析レポート出力部302は、データベース400に登録された作業者による作業で取り扱われている製品の製品情報や作業内容等に基づく分析レポートを出力する機能を有する。
データベース400は、製品情報を含む過去の作業実績データが蓄積されたデータベースである。データベース400は、データベース管理装置300により管理されており、作業支援装置200は、データベース管理装置300を通じてデータベース400へアクセス可能なように構成されている。
以下、本発明の実施の形態における作業支援システムの処理を第1〜第3フェーズの3つのフェーズに分けて説明する。図2〜図4のシーケンスチャートでは、図面の上部から下部に向かって処理の流れが示されており、作業支援システム10の構成要素である作業者端末100、作業支援装置200、データベース管理装置300の各々において実行される処理が時系列に示されている。ただし、図2〜図4のシーケンスチャートは、一連の処理の流れを説明するものであって、処理の順序を限定するものではない。
図2は、本発明の実施の形態における作業支援システムの第1フェーズに係る処理の一例を示すシーケンスチャートである。第1フェーズでは、作業者がこれから行う作業の内容を含む作業内容情報が作業者端末100から作業支援装置200へ送信され、その作業で取り扱われる製品の特徴を入力するよう指示する入力指示情報が作業支援装置200から作業者端末100へ送信される。
本発明の実施の形態における作業支援システムの処理は、例えば作業者端末100で作業支援用プログラムを起動することによって開始される。まず、これから行う作業内容を作業者に入力させる処理が実行される。
図2のシーケンスチャートにおいて、作業者端末100は、作業内容情報を生成する(ステップS1101)。作業内容情報は、作業者がこれから行う作業を特定する情報であり、例えば入庫や出荷等の作業を示す情報である。ステップS1101では、作業者端末100は、例えば作業者が「入庫」、「出荷」等のように発話した作業内容を表す発話音声をマイクロホン103で収音し、この音声情報を作業内容情報として生成する。
作業者端末100は、ステップS1101で生成された作業内容情報を作業支援装置200へ送信する(ステップS1103)。ステップS1101の作業内容情報の生成処理およびステップS1103の作業内容情報の送信処理は、一連の処理として実行される。すなわち、作業者端末100は、作業者の発話音声を収音してこの音声情報を作業支援装置200へ即時送信するようになっており、作業者は、作業内容を音声で入力するだけで、より具体的には作業内容を発話するだけで、作業内容を作業支援装置200へ連絡することが可能となる。
作業支援装置200は、作業者端末100から受信した作業内容情報に対して、音声/画像の判定を行う(ステップS1105)。ステップS1105の処理は、音声/画像判定部202により実行される。本発明の実施の形態における作業内容情報は音声情報の形態を有しており、音声/画像判定部202は、作業内容情報を音声解析部203へ出力する。
作業支援装置200は、音声情報の形態である作業内容情報を解析して音声変換処理を行う(ステップS1107)。ステップS1107の処理は、音声解析部203により実行される。ステップS1107の処理は、一例として、作業内容抽出部206における更なる処理のために、作業内容情報に含まれる音声情報をテキスト情報に変換する処理を含む。このとき、音声解析部203は、音素等を解析したり作業内容情報を入力した作業者の識別情報(例えば国籍情報を含む)を参照したりすることで、作業者の発話音声の言語を特定し、音声翻訳部204に言語の翻訳を行わせることが可能である。本発明の実施の形態では、主言語として日本語を想定しており、例えば日本語以外の言語が使用されている場合には、音声翻訳部204によって日本語に翻訳される。
作業支援装置200は、作業内容情報を解析して抽出した作業内容に基づいて、データベース400から、その作業内容と同一の作業内容を含む過去の作業実績データを抽出する(ステップS1109)。ステップS1109の処理は、データベース管理装置300と協働して、作業内容抽出部206により実行される。ステップS1109の処理は、一例として、作業内容情報から作業内容を表す単語を抽出し、その単語を検索キーとして、データベース400に含まれる情報の中からその検索キーを含む作業実績を検索して抽出する。
データベース管理装置300は、作業内容情報から抽出された作業内容と同一の作業内容を含む過去の作業実績データを保持する(ステップS1111)。ステップS1111における処理は、例えばデータベース400の更新開始の処理であり、後述するデータベース400への登録処理(図4のステップS3113)を更新終了の処理とする一連のトランザクションが設定されてもよい。
作業支援装置200は、作業者が行う作業で取り扱われる製品の特徴を入力するよう作業者へ指示する入力指示情報を生成する(ステップS1113)。ステップS1113の処理は、入力指示部208により実行される。本発明の実施の形態では、例えば、作業者端末100において入力指示の音声が出力される。一例として、作業支援装置200は、ステップS1113においてテキスト情報の形態で入力指示情報を生成した後、テキスト情報を音声情報へ変換する音声合成処理を行い(ステップS1115)、音声情報の形態に変換された入力指示情報を作業者端末100へ送信する(ステップS1117)。ステップS1115の処理は、音声合成部209で実行され、必要に応じて、音声翻訳部204で作業者が使用する言語に翻訳されてもよい。
作業者端末100は、入力指示情報を作業支援装置200から受信して、入力指示情報に含まれる音声情報をスピーカ105から再生する(ステップS1119)。なお、作業者端末100は、ステップS1103で作業内容情報を送信すると入力指示情報を待ち受ける動作モードに移行し、入力指示情報を受信すると即時再生するようになっている。
図3は、本発明の実施の形態における作業支援システムの第2フェーズに係る処理の一例を示すシーケンスチャートである。第2フェーズでは、作業者が作業で取り扱う製品の特徴を表す製品特徴情報が作業者端末100から作業支援装置200へ送信され、その作業で取り扱われる製品であると推定される製品情報を含む製品候補情報が作業支援装置200から作業者端末100へ送信される。
図3のシーケンスチャートは、図2のシーケンスチャートに続いて行われる処理を表しており、図3には、図2に示すステップS1119の処理が示されている。以下の説明では、図2に示すステップS1119の処理の後に行われる第2フェーズに係る処理について説明する。
図3のシーケンスチャートにおいて、作業者端末100は、製品特徴情報を生成する(ステップS2101)。製品特徴情報は、作業で取り扱われる製品の特徴を含む情報であり、例えば作業者が製品の名称や品番等の製品の特徴を表す発話音声から得られる音声情報や、製品をカメラ102で撮影して得られる画像情報である。作業者は、製品の特徴を発話するか、および/または、製品を撮影することで作業者端末100に製品の特徴を入力し、作業者端末100は、この作業者からの入力に基づいて製品特徴情報を生成する。なお、作業者は、音声入力を行うか画像の撮影を行うかあるいはその両方を行うかを自由に選択することが可能である。
製品の特徴は様々な表現方法で表される可能性がある。例えば作業者の発話音声によって製品の特徴が表現される場合、ある作業者は製品の名称や品番を正確に発語して表現するかもしれず、別の作業者は製品の略称や専門用語または業界用語を発語して製品を表現するかもしれない。さらに別の作業者は、メーカ名や一般名称(例えば「ステンレス鋼板」等の一般的な特徴)、さらには形状、材質、色や大きさ等の漠然とした特徴を発語して製品を表現するかもしれない。本発明の実施の形態では、このように作業者ごとに異なる様々な発話音声がマイクロホン103により収音されて、ステップS2101において音声情報の形態の製品特徴情報が生成される。
例えば作業者が製品を撮影することによって製品の特徴が表現される場合、作業者または撮影状況ごとに製品を撮影する際のアングル(撮影の向き)は異なり、製品全体を撮影することや製品の一部のみを撮影することも考えられる。本発明の実施の形態では、このように作業者や撮影状況ごとに異なる画像がカメラ102により撮影されて、ステップS2101において画像情報の形態の製品特徴情報が生成される。
作業者端末100は、ステップS2101で生成された製品特徴情報を作業支援装置200へ送信する(ステップS2103)。ステップS2101の製品特徴情報の生成処理およびステップS1103の製品特徴情報の送信処理は、一連の処理として実行される。すなわち、作業者端末100は、作業者の発話音声を収音した音声情報やカメラ102による撮影画像を作業支援装置200へ即時送信するようになっており、作業者は、製品の特徴を音声で入力したり製品の特徴を表す画像を撮影したりするだけで、より具体的には製品の特徴を発話したり製品を撮影するだけで、製品の特徴を作業支援装置200へ連絡することが可能となる。
作業支援装置200は、作業者端末100から受信した製品特徴情報に対して、音声/画像の判定を行う(ステップS2105)。ステップS2105の処理は、音声/画像判定部202により実行される。本発明の実施の形態における製品特徴情報は音声情報および画像情報の少なくとも一方または両方の情報を含んでおり、音声/画像判定部202は、音声情報の形態の製品特徴情報を音声解析部203へ出力し、画像情報の形態の製品特徴情報を画像解析部205へ出力する。
製品特徴情報が音声情報を含む場合には、下記のステップS2107の処理が実行され、製品特徴情報が画像情報を含む場合には、下記のステップS2109の処理が実行される。製品特徴情報が音声情報および画像情報の両方を含む場合には、下記のステップS2107およびステップS2109の両方の処理が実行される。
作業支援装置200は、音声情報の形態の製品特徴情報を解析して音声変換処理を行う(ステップS2107)。ステップS2107の処理は、音声解析部203により実行される。ステップS2107の処理は、一例として、作業内容抽出部206における更なる処理のために、製品特徴情報を音声情報からテキスト情報に変換する処理を含む。このとき、音声解析部203は、音素等を解析したり製品特徴情報を入力した作業者の識別情報(例えば国籍情報を含む)を参照したりすることで、作業者の発話音声の言語を特定し、音声翻訳部204に言語の翻訳を行わせることも可能である。本発明の実施の形態では主言語として日本語を想定しており、この場合、音声翻訳部204により日本語以外の言語を日本語に翻訳することが可能である。
また、作業支援装置200は、画像情報の形態の製品特徴情報を解析して画像解析処理を行う(ステップS2109)。ステップS2109の処理は、画像解析部205により実行される。ステップS2109の処理は、一例として、作業内容抽出部206における更なる処理のために、例えば画像のノイズ除去や画像中の被写体領域の抽出、各画素のRGB値や輝度値等の抽出等の処理を含む。
作業支援装置200は、製品特徴情報を解析して抽出した製品の特徴に基づいて、データベース400から、その製品の特徴に合致する製品情報を抽出する(ステップS2111)。ステップS2111の処理は、データベース管理装置300と協働して、製品情報抽出部207により実行される。音声情報の形態の製品特徴情報の場合には、ステップS2111の処理は、一例として、製品特徴情報から製品の特徴を表す単語を抽出し、その単語を検索キーとして、データベース400に含まれる製品情報の中からその検索キーを含む製品情報を検索して抽出する。また、画像情報の形態の製品特徴情報の場合には、ステップS2111の処理は、一例として、画像のパターンマッチングを行って、データベース400に含まれる製品情報の中から製品特徴情報に含まれる画像情報と合致する画像情報を検索し、合致する画像情報と関連付けられている製品情報を抽出する。さらには、製品情報抽出部207に機械学習による推定機能を実装させ、製品特徴情報を入力情報として適切な製品情報を推定できるようにしてもよい。
また、作業支援装置200は、ステップS2111において、製品特徴情報を解析して抽出した製品の特徴に合致する可能性の高い複数の製品情報を抽出してもよい。作業支援装置200は、例えば、製品の特徴に対応する可能性の最も高い製品情報とともに、複数の製品情報を補足情報として製品候補情報に含ませて作業者端末100へ送信することで、作業者が、作業者による作業で取り扱われている可能性のある複数の製品情報を確認できるようにしてもよい。
本発明の実施の形態では、後述するように、製品情報を提供した後にフィードバックとして作業者により入力される適否情報が「適切ではない(NO)」ことを示す場合(図4のステップS3109で「NO」の場合)には、新たな製品情報を作業者へ提供する処理が実行される。ステップS2111において複数の製品情報を一括して抽出しておき、適否情報がNOの場合には、一括して抽出した複数の製品情報の中から別の製品情報を選択して提供することで、適否情報がNOの場合における製品情報の抽出処理の負荷および時間を削減することが可能となる。
製品情報抽出部207は、一例として音声情報から抽出された単語を検索キーとする検索や画像のパターンマッチングを用いることで製品情報を抽出することが可能であるが、この方法に限定されるものではなく、任意の情報抽出方法を採用することが可能である。製品特徴情報に含まれる製品の特徴は様々な表現方法で表されており、上述したように、製品情報抽出部207に機械学習による推定機能を実装させることで、複雑かつ多様な表現を有する入力情報に基づいて適切な製品情報を抽出できるようにしてもよい。
作業支援装置200は、製品特徴情報に含まれる製品の特徴に合致する製品情報を含む製品候補情報を生成する(ステップS2113)。ステップS2113の処理は、製品候補情報生成部210により実行される。本発明の実施の形態では、例えば、データベース400に蓄積されている製品情報は、例えば製品の名称や品番等のテキスト情報を有するとともに、その製品の画像情報がさらに関連付けられている。一例として、作業支援装置200は、ステップS2113において作業者に提供すべき製品情報をデータベース400から読みだして製品候補情報を準備した後、製品候補情報に含まれるテキスト情報を音声情報へ変換する音声合成処理を行い(ステップS2115)、製品候補情報に含まれるテキスト情報および画像情報、さらには音声合成処理により得られた音声情報をARデータに加工するAR加工処理を行い(ステップS2117)、その結果得られたARデータの形態の製品候補情報を作業者端末100へ送信する(ステップS2119)。ステップS2115の処理は、音声合成部209で実行され、必要に応じて、音声翻訳部204で作業者が使用する言語に翻訳されてもよい。また、ステップS2117の処理は、ARデータ生成部211により実行される。
作業者端末100は、製品候補情報を作業支援装置200から受信してARデータを再生することで、ARデータに含まれる音声情報をスピーカ105から再生し、ARデータに含まれるテキスト情報や画像情報をタッチパネルディスプレイ104の表示画面に再生する(ステップS2121)。なお、作業者端末100は、ステップS2103で製品特徴情報を送信すると製品候補情報を待ち受ける動作モードに移行し、製品候補情報を受信すると即時再生するようになっている。
作業者端末100において製品候補情報に含まれるARデータを再生した場合、製品情報抽出部207により抽出された製品の特徴に対応する可能性の最も高い製品情報がタッチパネルディスプレイ104に表示される。さらに、ARデータが、製品の特徴に対応する可能性のある複数の製品情報を補足情報として含んでいる場合には、複数の製品情報のリストが表示される。作業者は、タッチパネルディスプレイ104の表示画面を視認することで、作業者による作業で取り扱われている可能性のある複数の製品情報を把握し、実際の作業で取り扱われている製品の製品情報と一致するかどうかを確認することが可能となる。
図4は、本発明の実施の形態における作業支援システムの第3フェーズに係る処理の一例を示すシーケンスチャートである。第3フェーズでは、作業者が製品候補情報を確認した後に入力した製品候補情報の適否を示す適否情報が作業者端末100から作業支援装置200へ送信され、作業支援装置200が適否情報に応じた処理を実行する。
図4のシーケンスチャートは、図3のシーケンスチャートに続いて行われる処理を表しており、図4には、図3に示すステップS2121の処理が示されている。以下の説明では、図3に示すステップS2121の処理の後に行われる第3フェーズに係る処理について説明する。
図4のシーケンスチャートにおいて、作業者端末100は、適否情報を生成する(ステップS3101)。ステップS3101では、作業者は、ステップS2121において再生された製品候補情報が、ステップS2101でその特徴を入力した製品と一致するかどうかを確認することで、製品候補情報が作業対象の製品と適切に対応しているかどうかを判定する。製品候補情報が作業対象の製品と適切に対応している場合には、作業者は「適切である(YES)」という判定結果を発話し、製品候補情報が作業対象の製品と適切に対応していない場合には、作業者は「適切ではない(NO)」という判定結果を発話する。作業者端末100は、この発話音声をマイクロホン103で収音して、音声情報を適否情報として生成する。
作業者端末100は、ステップS3101で生成された適否情報を作業支援装置200へ送信する(ステップS3103)。適否情報の送信は、作業支援装置200から作業者端末100へ提供された製品候補情報に対する、作業者端末100から作業支援装置200へのフィードバックであると言える。ステップS3101の適否情報の生成処理およびステップS3103の適否情報の送信処理は、一連の処理として実行される。すなわち、作業者端末100は、作業者の発話音声を収音してこの音声情報を作業支援装置200へ即時送信するようになっており、作業者は、製品情報に対する適否を音声で入力するだけで、より具体的には製品候補情報に対する適否を発話するだけで、適否を作業支援装置200へ連絡することが可能となる。
作業支援装置200は、作業者端末100から受信した適否情報に対して、音声/画像の判定を行う(ステップS3105)。ステップS3105の処理は、音声/画像判定部202により実行される。本発明の実施の形態における適否情報は音声情報の形態を有しており、音声/画像判定部202は、適否情報を音声解析部203へ出力する。
作業支援装置200は、音声情報の形態である適否情報を解析して音声変換処理を行う(ステップS3107)。ステップS3107の処理は、音声解析部203により実行される。ステップS3107の処理は、一例として、適否情報取得部212における更なる処理のために、適否情報を音声情報からテキスト情報に変換する処理を含む。このとき、適否情報取得部212は、音素等を解析したり適否情報を入力した作業者の識別情報(例えば国籍情報を含む)を参照したりすることで、作業者の発話音声の言語を特定し、音声翻訳部204に言語の翻訳を行わせることも可能である。本発明の実施の形態では主言語として日本語を想定しており、この場合、音声翻訳部204により日本語以外の言語を日本語に翻訳することが可能である。
作業支援装置200は、適否情報に含まれる「適切である(YES)」または「適切ではない(NO)」という情報を特定し、次に実行すべき処理を決定する(ステップS3109)。ステップS3107の処理は、適否情報取得部212により実行される。
適否情報が「適切ではない(NO)」という情報を含む場合には、作業支援装置200はステップS2111に戻り、データベース400から、作業者により入力された製品の特徴に合致する製品情報を新たに抽出する。このとき、上述したように、初回に実行された製品情報の抽出処理において複数の製品情報を抽出しておき、複数の製品情報の中から別の製品情報を選択するようにしてもよい。この後の処理は、上述したステップS2111以降の処理と同一であり、説明を省略する。
なお、作業者が「適切である(YES)」と判定して、適否情報が「適切である(YES)」という情報を含まない限り、ステップS3109からステップS2111へ繰り返し戻るループ処理が形成される。このようなループ処理に対処するためにループ処理の終了条件を設定してもよい。例えば製品候補情報を提供する回数が所定回数を上回った場合には、強制的に処理を終了したり、ステップS2101に戻って作業者に製品の特徴を再入力させたりしてもよい。
一方、適否情報が「適切である(YES)」という情報を含む場合には、作業支援装置200は、ステップS2101で入力された製品の特徴を含む製品特徴情報と、ステップS2111で抽出した製品情報とを関連付ける(ステップS3111)。なお、製品特徴情報と製品情報との関連付けは、製品特徴情報がこの製品情報を表す製品の特徴を含んでいることを意味する。製品情報と関連付ける製品特徴情報は、例えば、作業者が入力した発話音声を含む音声情報または発話音声のテキスト情報や製品を撮影した画像情報をそのまま製品情報に関連付けてもよく、音声情報、テキスト情報または画像情報から得られる一部の情報を加工して関連付けてもよい。
また、製品情報抽出部207が、機械学習による推定機能を実装しており、ステップS2111における製品情報の抽出が機械学習によって推定されている場合には、製品候補情報をポジティブなサンプルデータとして使用して、機械学習における重みのパラメータを調整してもよい。これにより機械学習の推定制度を向上させることが可能となる。また、「適切ではない(NO)」と判定された製品候補情報をネガティブなサンプルデータとして使用して、機械学習における重みのパラメータを調整してもよい。
作業支援装置200は、データベース管理装置300と協働して、今回の作業者による作業内容や作業で取り扱われている製品情報等に基づき、作業実績として、製品の在庫状況、担当者情報等をデータベース400に登録する(ステップS3113)。このとき、データベース管理装置300は、製品情報とともに、製品情報と関連付けられた製品候補情報をデータベース400または他の記憶媒体に登録または蓄積してもよい。
データベース管理装置300は、登録した作業実績に基づき、分析レポートを出力する(ステップS3115)。
なお、図2〜図4のフローチャートでは図示および説明を省略しているが、さらに、作業実績としてデータベース400に登録すべき付加情報が作業者によって入力されて、作業者端末100から作業支援装置200へ送信されてもよい。データベース400に登録すべき付加情報は、データベース400の作業実績の項目として設定されている情報であり、例えば製品の数量等の情報である。
データベース400に登録すべき付加的な情報は、作業者が任意のタイミングで入力することが可能である。一例として、作業者は、製品候補情報が作業対象の製品と適切に対応している場合に「適切である(YES)」という判定結果を発話するとともに、「数量2」等のように付加情報を発話することで、音声情報の形態の付加情報が作業者端末100から作業支援装置200へ送信されるようにしてもよい。また、上述した作業内容の入力動作と同様に、作業支援装置200から作業者端末100へ数量等の付加情報の入力指示が送信され、作業者がこの入力指示に従って付加情報を発話することで、音声情報の形態の付加情報が作業者端末100から作業支援装置200へ送信されるようにしてもよい。
図5は、本発明の実施の形態における作業支援システムに係る処理によって更新されるデータベースの一例を示す図である。データベース400は作業実績を記録および蓄積する構成を有する。図5には、作業実績のエントリ(行)および各項目(列)を有する表形式のデータベース400が図示されている。なお、図5に示すデータベース400は、データベース400の構成を説明するために模式的に描かれたものであり、一例にすぎない。
図5に示すデータベース400の各エントリには、作業実績の項目として、作業日時の項目401、作業場所の項目402、作業者IDの項目403、作業内容の項目404、製品名称の項目405、製品番号の項目406、数量の項目407が設定されている。他にも、例えば伝票番号や入庫予定日および出荷予定日等を始めとする様々な項目が設定されていてもよい。
作業日時の項目401には、作業者によって作業が行われた作業日時が記録される。作業日時の項目401には、例えば図4のステップS3113で作業実績がデータベース400に登録された時点の日時が記録される。
作業場所の項目402には、作業者が作業を行っている場所が記録される。作業場所は、例えばネットワークアドレスや作業者端末IDから特定されてもよく、作業者が付加情報として通知するか、作業を行う前にあらかじめ通知しておいてもよい。
作業者IDの項目403には、作業者の識別情報が記録される。作業者IDは、例えば作業者が付加情報として通知するか、作業を行う前にあらかじめ通知しておいてもよく、作業者IDの項目403に作業者端末IDが記録されてもよい。
作業内容の項目404には、作業者が行っている作業内容が記録される。作業内容の項目404には、例えば図2のステップS1103で送信される作業内容情報に含まれる作業内容が記録される。
製品名称の項目405には、作業者による作業で取り扱われている製品の名称が記録される。製品名称の項目405には、作業対象の製品が適切であると作業者によって判定された製品の名称が記憶される。
製品番号の項目406には、作業者による作業で取り扱われている製品の識別情報が記録される。製品番号の項目406には、作業対象の製品が適切であると作業者によって判定された製品の製品番号が記憶される。
数量の項目407には、作業者による作業で取り扱われている製品の数量が記録される。数量の項目407には、例えば作業者が付加情報として通知した製品の数量が記録される。
通常、データベース400への登録は、作業者自身やデータベース400への登録を行う担当者が、製品の品番や伝票番号等を検索キーとして入庫予定や出荷予定を検索し、実際の作業で行われた作業実績を入力するようになっている。しかしながら、データベース400への登録は、データベース400の構造や入力方法等を熟知している必要があり、一定以上のスキルを必要とするものである。また、作業が完了した後にデータベース400の各項目が事後入力されるため、作業実績の入力し忘れ(登録漏れ)やタイプミス(打ち間違いや品番等の打ち込みミス)が発生するおそれもある。特に、外国人の作業者にとっては言語の壁があり、母国語以外の言語が使用されているシステムを使って、母国語以外の単語を入力することは困難である。
これに対して、本発明の実施の形態における作業支援システム10は、上述した通常のデータベース登録では実現できない様々な利点を有している。例えば、本発明の実施の形態における作業支援システム10によれば、作業者が音声入力または画像撮影の簡単な入力操作を行うだけで、作業者にとって自動的に作業実績がデータベース400に登録されるようになっている。また、作業者により取り扱われている製品や作業内容等が、作業者による作業過程においてデータベース400に即時登録されるため、データベース400が迅速かつ正確に更新されるようになっている。さらに、本発明の実施の形態における作業支援システム10は音声翻訳部204を備えており、作業者が入力した音声や作業者に提供する音声が翻訳されるため、作業者は、言語の壁を感じることなく作業を行ってその作業実績がデータベース400に登録されるようになっている。
図6は、本発明の実施の形態における作業支援システムから出力される分析レポートの表示画面の一例を示す図である。図6に示す分析レポートは、データベース400に登録されている作業実績データに基づき、例えば図4のステップS3115で出力される。なお、図6に示す分析レポートは、分析レポートにより実現される視覚的な表現を説明するために模式的に描かれたものであり、一例にすぎない。
図6に図示されているように、分析レポートはデータベース400に登録されている作業実績データから得られる様々な情報を含んでおり、ダッシュボードと呼ばれる管理画面上に表示される。分析レポートは、閲覧者が情報を容易に把握できるようにデザインされている。具体的には、図6に示す分析レポートは製品原価レポートであり、製造原価、限界利益、限界利益率、製造粗利、製造粗利率の各数値が表示されている。また、固定費/変動費の統計値が棒グラフや円グラフによって表示されている。
例えば、本発明の実施の形態における作業支援システム10によれば、作業者が音声入力または画像撮影の簡単な入力操作を行うだけで、作業者にとって自動的に作業実績がデータベース400に登録されるようになっている。
なお、ダッシュボード上に表示する情報は、データベース400に作業実績として記録および蓄積された情報に限定されるものではない。本発明に係る作業支援システム10で得られた様々な情報をダッシュボード上に表示することが可能である。
例えば、データベース管理装置300は、作業者が入力した製品特徴情報(音声情報または発話音声のテキスト情報、製品を撮影した画像情報等)を作業実績としてデータベース400または他の記憶媒体に記録することが可能である。図7に示すように、データベース400または他の記憶媒体に記録された製品特徴情報(図7に示す例では、作業者が撮影した製品の画像情報を含む品番特定レポート)をダッシュボード上に表示してもよい。また、製品情報抽出部207が機械学習による推定機能を利用して製品情報を特定するよう構成されている場合には、機械学習の学習結果や学習精度等の情報をダッシュボード上に表示してもよい。
次に、作用・効果について説明する。
上述のように、本発明の実施の形態に係る作業支援システム10では、作業支援装置200の製品情報抽出部207が、音声情報および画像情報の少なくとも一方の形態で作業者により入力された製品特徴情報から製品の特徴を特定して、製品の特徴に対応する製品情報をデータベース400に蓄積されている製品情報の中から抽出し、抽出された製品情報を含む製品候補情報が作業者へ提供される。
この構成により、作業支援装置200は、作業者により入力された製品の特徴を表す音声または画像から、作業者が取り扱っている製品を特定して、その製品情報を作業者に提供することが可能である。このため、例えば作業スキルの低い作業者等であっても作業対象の製品を容易に特定することが可能となり、作業者の負担を軽減させることが可能となる。特に、作業者は、作業者端末100において、作業で取り扱っている製品の特徴を音声で入力するか、あるいは製品の特徴を表す画像を撮影するという簡単な操作を行うだけで製品の特徴に対応する製品情報を容易に得ることが可能となり、製品情報を確実に把握することが可能となる。また、作業や製品に不慣れな作業者であっても、他の熟練作業者等の助けを借りることなく製品情報を容易かつ確実に得ることが可能となり、作業に従事している作業者だけではなく、他の熟練作業者の負担も軽減させることが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、製品情報抽出部207が、機械学習を用いた推定処理により製品の特徴に対応する製品情報を推定してもよい。この構成により、機械学習を用いた推定を利用することで、作業者により入力された製品の特徴を表す音声または画像から高い精度で製品情報を推定することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、ARデータ生成部211が、製品候補情報として、製品情報に含まれる画像情報を拡張現実画像として再生可能とするARデータを生成してもよい。この構成により、製品情報をARデータとして作業者に提供することが可能となり、作業者は、例えばディスプレイ上に自動再生されるARデータを視認するだけで、製品情報を確実に把握することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、製品情報抽出部207は、製品特徴情報が画像情報である場合には画像解析処理により得られた画像情報と合致する画像情報を含む製品情報を抽出し、製品特徴情報が音声情報である場合には音声解析処理により得られた製品名称と合致する画像情報を含む製品情報を抽出してもよい。この構成により、作業者が製品の特徴を音声で入力した場合、あるいは製品の特徴を表す画像を撮影した場合のどちらであっても、その製品の特徴と合致する画像情報を特定して、その画像情報を作業者へ提供することが可能となる。作業者は、音声または画像による製品の特徴を入力するだけで、その製品に対応した製品情報を画像情報として得ることが可能となる、製品情報を確実に把握することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、音声合成部209が製品の特徴に対応する製品情報に含まれるテキスト情報を音声情報に変換してもよい。この構成により、製品情報に含まれるテキスト情報を読み上げ音声として作業者に提供することが可能となる。作業者は、音声または画像による製品の特徴を入力するだけで、その製品に対応した製品情報の読み上げ音声を聞いて製品情報を得ることが可能となり、製品情報を確実に把握することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、音声翻訳部204が音声情報に含まれる音声を別の言語の音声に変換してもよい。この構成により、作業者の使用言語と日本語とを相互に変換することが可能となる。例えば外国人の作業者が母国語で音声入力した場合であっても日本語の製品情報を特定することが可能となる。また、日本語の製品情報を作業者の母国語の音声に変換して、作業者へ提供することが可能となる。これにより、作業者は言語の壁を感じることなく製品情報を確実に把握することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、作業者が操作可能な作業者端末100を有し、作業者端末は、作業者による音声入力および画像撮影に係る音声情報および画像情報を作業支援装置200へ即時送信し、作業支援装置200から提供された製品候補情報を即時出力してもよい。この構成により、作業者は作業者端末100上で複雑な操作を行うことなく、例えば製品の特徴を発語したり製品に対してカメラ102を向けたりするだけで、製品の特徴を含む情報が作業支援装置200へ自動的に送られ、作業者端末100に提供される製品候補情報が自動的に作業者端末100で出力されるため、作業者に対して作業者端末100の複雑な操作を強いることなく、作業者の操作負担を減らすことが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、適否情報取得部212が、音声情報の形態で作業者により入力された、製品候補情報が製品に適切に対応しているか否かを示す適否情報を取得してもよい。この構成により、作業者から適否情報を得ることで、作業者に対して提供した製品情報が適切であったか否かを判定することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、データベース登録部301が、適否情報において製品候補情報が製品に適切に対応することが示されている場合には、製品候補情報として作業者に提供した製品情報を、作業者による作業で取り扱われている製品の製品情報として作業内容とともにデータベース400に登録してもよい。この構成により、作業者に対して提供した製品情報が適切であった場合、作業者が現在その製品を作業対象として作業を行っていることを作業内容とともにデータベース400に即時登録することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、分析レポート出力部302が、データベース400に登録された作業者による作業で取り扱われている製品の製品情報と作業内容とに基づく分析レポートを出力してもよい。この構成により、作業者の作業対象とした製品および作業内容に基づいて、業務管理において必要な様々な項目を含む分析レポートを容易かつ正確に作成することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、製品候補情報生成部210が、適否情報において製品候補情報が製品に適切に対応していないことが示されている場合には、新たな製品情報を含む製品候補情報を生成してもよい。この構成により、作業者に対して提供した製品情報が適切ではなかった場合であっても、作業者は、再生成された製品候補情報を確認することで、適切な製品情報を得ることが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、製品情報抽出部207は、適否情報に基づいて、データベース400から製品の特徴に対応する製品情報を抽出する際の抽出精度を向上させてもよい。この構成により、作業者から得た適否情報に基づいて、次回以降の製品情報の抽出処理における精度を向上させることが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、作業内容抽出部206が、音声情報の形態で作業者により入力された、作業の内容を表す作業内容情報を取得してもよい。この構成により、作業者が入力した作業の内容を表す音声から、作業者が行っている作業の内容を特定することが可能となる。また、作業者は、作業の内容を音声で入力するという簡単な操作により作業の内容を通知することが可能となる。
また、本発明の実施の形態に係る作業支援システム10では、入力指示部208が、作作業内容情報に対応する作業で取り扱われる製品の特徴を入力するよう作業者へ指示してもよい。この構成により、作業者が行っている作業の内容を特定したうえで、その作業で取り扱っている製品の特徴を入力するよう作業者に指示することが可能となる。
本発明は、上記の実施の形態や変形例に限定されるものではなく、本発明の技術的思想を逸脱しない範囲における種々の変形例および設計変更等をその技術的範囲に包含するものである。
10 作業支援システム
100 作業者端末
101 通信部
102 カメラ
103 マイクロホン
104 タッチパネルディスプレイ
105 スピーカ
106 作業支援動作制御部
150 ネットワーク
200 作業支援装置
201 通信部(製品特徴情報取得部、製品候補情報提供部)
202 音声/画像判定部
203 音声解析部
204 音声翻訳部
205 画像解析部
206 作業内容抽出部
207 製品情報抽出部
208 入力指示部
209 音声合成部
210 製品候補情報生成部
211 ARデータ生成部
212 適否情報取得部
300 データベース管理装置
301 データベース登録部
302 分析レポート出力部
400 データベース
401 作業日時の項目
402 作業場所の項目
403 作業者IDの項目
404 作業内容の項目
405 製品名称の項目
406 製品番号の項目
407 数量の項目

Claims (16)

  1. 作業者による作業を支援する作業支援システムであって、
    前記作業者により入力された情報に基づき前記作業を支援するための情報を前記作業者に提供する作業支援装置と、
    製品情報を含む過去の作業実績データが蓄積されたデータベースを含むデータベース管理装置と、
    を有し、
    前記作業支援装置は、
    音声情報および画像情報の少なくとも一方の形態で前記作業者により入力された、前記作業で取り扱われる製品の特徴を含む製品特徴情報を取得する製品特徴情報取得部と、
    前記画像情報の形態で入力された前記製品特徴情報に対して画像解析処理を行う画像解析部と、
    前記音声情報の形態で入力された前記製品特徴情報に対して音声解析処理を行う音声解析部と、
    前記画像解析部および前記音声解析部の少なくとも一方により処理された前記製品特徴情報から前記製品の特徴を特定し、前記製品の特徴に対応する製品情報を前記データベースに蓄積されている製品情報の中から抽出する製品情報抽出部と、
    前記製品情報抽出部により抽出された前記製品情報を含む製品候補情報を生成する製品候補情報生成部と、
    前記製品候補情報生成部により生成された前記製品候補情報を前記作業者へ提供する製品候補情報提供部と、
    を備えることを特徴とする作業支援システム。
  2. 前記製品情報抽出部は、機械学習を用いた推定処理により前記製品の特徴に対応する製品情報を推定することを特徴とする請求項1に記載の作業支援システム。
  3. 前記作業支援装置は、前記製品候補情報として、前記製品情報に含まれる前記画像情報を拡張現実画像として再生可能とする拡張現実データを生成する拡張現実データ生成部を備えることを特徴とする請求項1または2に記載の作業支援システム。
  4. 前記製品情報抽出部は、前記製品特徴情報が前記画像情報である場合には前記画像解析処理により得られた画像情報と合致する画像情報を含む製品情報を抽出し、前記製品特徴情報が前記音声情報である場合には前記音声解析処理により得られた製品名称と合致する画像情報を含む製品情報を抽出することを特徴とする請求項1から3のいずれか1つに記載の作業支援システム。
  5. 前記作業支援装置は、前記製品の特徴に対応する製品情報に含まれる前記テキスト情報を音声情報に変換する音声合成部を備えることを特徴とする請求項1から4のいずれか1つに記載の作業支援システム。
  6. 前記作業支援装置は、前記音声情報に含まれる音声を別の言語の音声に変換する音声翻訳部を備えることを特徴とする請求項1から5のいずれか1つに記載の作業支援システム。
  7. 前記作業者が操作可能な作業者端末を有し、
    前記作業者端末は、前記作業者による音声入力および画像撮影に係る前記音声情報および前記画像情報を前記作業支援装置へ即時送信し、前記作業支援装置から提供された前記製品候補情報を即時出力することを特徴とする請求項1から6のいずれか1つに記載の作業支援システム。
  8. 前記作業支援装置は、音声情報の形態で前記作業者により入力された、前記製品候補情報が前記製品に適切に対応しているか否かを示す適否情報を取得する適否情報取得部を備えることを特徴とする請求項1から7のいずれか1つに記載の作業支援システム。
  9. 前記データベース管理装置は、前記適否情報において前記製品候補情報が前記製品に適切に対応することが示されている場合には、前記製品候補情報として前記作業者に提供した前記製品情報を、前記作業者による作業で取り扱われている製品の製品情報として作業内容とともに前記データベースに登録するデータベース登録部を備えることを特徴とする請求項8に記載の作業支援システム。
  10. 前記データベース管理装置は、前記データベースに登録された前記作業者による作業で取り扱われている製品の製品情報と前記作業内容とに基づく分析レポートを出力する分析レポート出力部を備えることを特徴とする請求項9に記載の作業支援システム。
  11. 前記製品候補情報生成部は、前記適否情報において前記製品候補情報が前記製品に適切に対応していないことが示されている場合には、新たな製品情報を含む製品候補情報を生成することを特徴とする請求項8から10のいずれか1つに記載の作業支援システム。
  12. 前記製品情報抽出部は、前記適否情報に基づいて、前記データベースから前記製品の特徴に対応する製品情報を抽出する際の抽出精度を向上させることを特徴とする請求項8から11のいずれか1つに記載の作業支援システム。
  13. 前記作業支援装置は、音声情報の形態で前記作業者により入力された、前記作業の内容を表す作業内容情報を取得する作業内容抽出部を備えることを特徴とする請求項1から12のいずれか1つに記載の作業支援システム。
  14. 前記作業支援装置は、前記作業内容情報に対応する作業で取り扱われる製品の特徴を入力するよう前記作業者へ指示する入力指示部を備えることを特徴とする請求項13に記載の作業支援システム。
  15. 作業者による作業を支援する作業支援装置により実行される作業支援方法であって、
    音声情報および画像情報の少なくとも一方の形態で前記作業者により入力された、前記作業で取り扱われる製品の特徴を含む製品特徴情報を取得することと、
    前記製品特徴情報が前記画像情報である場合には画像解析処理を行い、前記製品特徴情報が前記音声情報である場合には音声解析処理を行うことと、
    前記画像解析処理および前記音声解析処理の少なくとも一方により処理された前記製品特徴情報から前記製品の特徴を特定し、前記製品の特徴に対応する製品情報を、過去の作業実績データが蓄積されたデータベースに格納されている製品情報の中から抽出することと、
    抽出された前記製品情報を含む製品候補情報を前記作業者へ提供することと、
    を有することを特徴とする作業支援方法。
  16. 作業者により入力された情報に基づき前記作業者による作業を支援する作業支援装置であって、
    音声情報および画像情報の少なくとも一方の形態で前記作業者により入力された、前記作業で取り扱われる製品の特徴を含む製品特徴情報を取得する製品特徴情報取得部と、
    前記画像情報の形態で入力された前記製品特徴情報に対して画像解析処理を行う画像解析部と、
    前記音声情報の形態で入力された前記製品特徴情報に対して音声解析処理を行う音声解析部と、
    前記画像解析部および前記音声解析部の少なくとも一方により処理された前記製品特徴情報から前記製品の特徴を特定し、前記製品の特徴に対応する製品情報を、過去の作業実績データが蓄積されたデータベースに蓄積されている製品情報の中から抽出する製品情報抽出部と、
    前記製品情報抽出部により抽出された前記製品情報を含む製品候補情報を生成する製品候補情報生成部と、
    前記製品候補情報生成部により生成された前記製品候補情報を前記作業者へ提供する製品候補情報提供部と、
    を有することを特徴とする作業支援装置。
JP2019085820A 2019-04-26 2019-04-26 作業支援システムおよび作業支援方法ならびに作業支援装置 Active JP7336872B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019085820A JP7336872B2 (ja) 2019-04-26 2019-04-26 作業支援システムおよび作業支援方法ならびに作業支援装置
JP2023134724A JP2023153283A (ja) 2019-04-26 2023-08-22 作業支援システムおよび作業支援方法ならびに作業支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085820A JP7336872B2 (ja) 2019-04-26 2019-04-26 作業支援システムおよび作業支援方法ならびに作業支援装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023134724A Division JP2023153283A (ja) 2019-04-26 2023-08-22 作業支援システムおよび作業支援方法ならびに作業支援装置

Publications (2)

Publication Number Publication Date
JP2020181502A true JP2020181502A (ja) 2020-11-05
JP7336872B2 JP7336872B2 (ja) 2023-09-01

Family

ID=73024158

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019085820A Active JP7336872B2 (ja) 2019-04-26 2019-04-26 作業支援システムおよび作業支援方法ならびに作業支援装置
JP2023134724A Pending JP2023153283A (ja) 2019-04-26 2023-08-22 作業支援システムおよび作業支援方法ならびに作業支援装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023134724A Pending JP2023153283A (ja) 2019-04-26 2023-08-22 作業支援システムおよび作業支援方法ならびに作業支援装置

Country Status (1)

Country Link
JP (2) JP7336872B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038453A1 (ko) * 2021-09-09 2023-03-16 주식회사 테이아 차량 제조의 작업 품질 보증 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102727A (ja) * 2002-09-10 2004-04-02 Mitsubishi Heavy Ind Ltd 作業支援システム
JP2006031200A (ja) * 2004-07-14 2006-02-02 Nec Corp 商品検索システム及びその方法並びにそれに用いる端末装置、サーバ装置及びプログラム
JP2017167902A (ja) * 2016-03-17 2017-09-21 富士電機株式会社 作業支援装置、作業支援システムおよび作業支援プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102727A (ja) * 2002-09-10 2004-04-02 Mitsubishi Heavy Ind Ltd 作業支援システム
JP2006031200A (ja) * 2004-07-14 2006-02-02 Nec Corp 商品検索システム及びその方法並びにそれに用いる端末装置、サーバ装置及びプログラム
JP2017167902A (ja) * 2016-03-17 2017-09-21 富士電機株式会社 作業支援装置、作業支援システムおよび作業支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038453A1 (ko) * 2021-09-09 2023-03-16 주식회사 테이아 차량 제조의 작업 품질 보증 시스템 및 방법

Also Published As

Publication number Publication date
JP2023153283A (ja) 2023-10-17
JP7336872B2 (ja) 2023-09-01

Similar Documents

Publication Publication Date Title
US20230316643A1 (en) Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal
RU2653283C2 (ru) Способ диалога между машиной, такой как гуманоидный робот, и собеседником-человеком, компьютерный программный продукт и гуманоидный робот для осуществления такого способа
JP4629560B2 (ja) 対話型情報システム
JP4689670B2 (ja) 車両及び他の複雑な装置用の双方向マニュアル、システム及び方法
KR102081925B1 (ko) 디스플레이 디바이스 및 스피치 검색 방법
CN103765440B (zh) 使用背景信息的移动装置上的光学字符辨识
CN110688911A (zh) 视频处理方法、装置、系统、终端设备及存储介质
CN113835522A (zh) 手语视频生成、翻译、客服方法、设备和可读介质
JP2023552854A (ja) ヒューマンコンピュータインタラクション方法、装置、システム、電子機器、コンピュータ可読媒体及びプログラム
US9525841B2 (en) Imaging device for associating image data with shooting condition information
KR102174922B1 (ko) 사용자의 감정 또는 의도를 반영한 대화형 수어-음성 번역 장치 및 음성-수어 번역 장치
JP2023153283A (ja) 作業支援システムおよび作業支援方法ならびに作業支援装置
CN101861621A (zh) 自动同步解释系统
CN113822187A (zh) 手语翻译、客服、通信方法、设备和可读介质
CN113851029A (zh) 一种无障碍通信方法和装置
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
CN111311713A (zh) 漫画处理方法、显示方法、装置、终端及存储介质
US20230196943A1 (en) Narrative text and vocal computer game user interface
KR20210064830A (ko) 영상처리 시스템
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
US20200234187A1 (en) Information processing apparatus, information processing method, and program
KR20160122869A (ko) 로봇 팔을 이용한 언어 변환이 가능한 장치
KR20200042137A (ko) 변형 발화 텍스트를 제공하는 전자 장치 및 그것의 동작 방법
US20210256869A1 (en) Method and system for automatically sharing procedural knowledge
JP2000089660A (ja) 手話学習支援装置および手話学習支援プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221007

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20221012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230822

R150 Certificate of patent or registration of utility model

Ref document number: 7336872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150