JP2022136068A - 情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造 - Google Patents
情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造 Download PDFInfo
- Publication number
- JP2022136068A JP2022136068A JP2022062889A JP2022062889A JP2022136068A JP 2022136068 A JP2022136068 A JP 2022136068A JP 2022062889 A JP2022062889 A JP 2022062889A JP 2022062889 A JP2022062889 A JP 2022062889A JP 2022136068 A JP2022136068 A JP 2022136068A
- Authority
- JP
- Japan
- Prior art keywords
- information
- scene
- work
- chunk
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000011156 evaluation Methods 0.000 claims abstract description 70
- 238000012797 qualification Methods 0.000 claims description 24
- 238000010801 machine learning Methods 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims 1
- 230000010365 information processing Effects 0.000 abstract description 44
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 14
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 240000004050 Pentaglottis sempervirens Species 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- General Factory Administration (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を、使用者に提示し、情報提供の実効性及び情報の有用性を向上させる情報表示装置、情報表示システム、プログラム、学習方法及びデータ構造を提供する。【解決手段】使用者が対象物5に対して行う作業の支援を行う情報処理装置1であって、ロールテーブルを記憶する記憶部と、使用者が作業を行う作業場所であるシーンの画像である第1の画像と、位置情報と、作業関連情報と、を含む評価対象情報を取得し、第1の学習済みモデルを使用し、連関性の重み変数に基づいて使用者が作業を行うシーンを推定し、第2の画像を取得し、複数の第2の学習済みモデルのうちの1つを使用し、チャンクを推定し、参照情報を取得し、オブジェクトモデルを特定し、オブジェクトモデルが有する複数の表示領域に、参照情報を割り当て、オブジェクトモデルと、参照情報とを出力する。【選択図】図2
Description
本発明は、情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造に関する。
従来、立方体、又は多面体を用いた情報表示手段として、例えば特許文献1の情報処理装置、例えば特許文献2の頭部装着型表示装置等が提案されている。
特許文献1の情報処理装置では、両眼視差により観察者が立体画像を観視可能な表示装置に、メール情報表示を出力し、入力操作にもとづいて、メール情報表示の表示状態を、第1の表示状態から表示装置における奥行き位置が第1の表示状態と異なる第2の表示状態に切り替えて表示する。
また、特許文献2の頭部装着型表示装置では、処理を指示するための命令が多面体の各面に割り当てられた多面体画像を表示部に表示させ、多面体画像に対する操作を受けて、多面体の表示される向きを切り替え、多面体画像において予め定められた向きの面に割り当てられた命令を実行する。
ここで、多面体に各種の情報を表示する場合、使用者が必要な際に、使用者に絞り込まれた情報を、適切に提示する必要がある。この点、特許文献1では、メール情報表示の表示状態を、第1の表示状態からグループ単位に設定した奥行き位置を変更する第2の表示状態に切り替えて表示する旨が開示されている。このため、特許文献1の開示技術では、メール情報の表示を第1の表示状態と異ならせ、第2の表示状態で表示しているに過ぎず、使用者が必要な際に、使用者に絞り込まれた情報が提示されるもの、使用者が気付いていない有益な情報を表示すものではない。このため、情報提供の実効性に乏しい点が、懸念として挙げられる。
また、特許文献2では、画面操作に必要な命令を多面体画像の各面に割り当て、頭部装着型表示装置内のインターフェースエリアに表示する旨が開示されている。この点、特許文献2の開示技術では、操作に必要な命令名を多面体画像の各々の面に割り当て、命令が割り当てられた多面体画像を表示するに過ぎない。また、頭部装着型表示装置内のインターフェースエリアに表示される各種の情報は、頭部装着型表示装置内のシースルー表示エリアに実際の映像に重畳して表示される。このため、表示する情報量が多い場合等は、使用者が必要な際に、使用者に絞り込まれた情報や、使用者が気付いていない有益な情報を表示す情報を、適切に提示することができず、情報の有用性を引き下げてしまう点が、懸念として挙げられる。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を、使用者に提示し、情報提供の実効性、及び情報の有用性を向上させることができる情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造を提供することを目的とする。
第1発明に係る情報表示装置は、使用者が対象物に対して行う作業の支援を行う情報表示装置であって、前記使用者を識別する資格ID、部門ID、エリアIDを少なくとも含むロールテーブルを記憶する記憶部と、前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像と、前記使用者がいる位置の情報である位置情報と、前記ロールテーブルを参照して前記使用者の作業に関する前記資格ID、前記エリアID、及び前記部門IDを含む作業関連情報と、を含む評価対象情報を取得する取得部と、前記取得部により取得された前記評価対象情報に基づいて、前記評価対象情報と、前記シーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用し、前記連関性の重み変数に基づいて前記使用者が前記作業を行う前記シーンを推定するシーン推定部と、前記取得部は、前記シーン推定部により前記シーンが推定された後に、前記作業に関する対象物の画像である第2の画像を取得し、前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、前記連関性の重み変数に基づいてチャンクを推定するチャンク推定部と、前記シーン推定部により推定された前記シーン及び前記チャンク推定部により推定された前記チャンクと、前記資格IDと、に基づいて参照情報を取得し、取得した前記参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、前記オブジェクトモデルを特定するオブジェクトモデル特定部と、前記オブジェクトモデル特定部により特定された前記オブジェクトモデルが有する複数の表示領域に、前記参照情報を割り当てる割当部と、前記オブジェクトモデル特定部により特定された前記オブジェクトモデルと、前記割当部により割り当てられた前記参照情報とを出力する出力部と、を備えること、を特徴とする。
第2発明に係る情報表示システムは、使用者が対象物に対して行う作業の支援を行う情報表示システムであって、前記使用者を識別する資格ID、部門ID、エリアIDを少なくとも含むロールテーブルを記憶する記憶手段と、前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像と、前記使用者がいる位置の情報である位置情報と、前記ロールテーブルを参照して前記使用者の作業に関する前記資格ID、前記エリアID、及び前記部門IDを含む作業関連情報と、を含む評価対象情報を取得する取得手段と、前記取得手段により取得された前記評価対象情報に基づいて、前記評価対象情報と、前記シーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用し、前記連関性の重み変数に基づいて前記使用者が前記作業を行う前記シーンを推定するシーン推定手段と、前記取得手段は、前記シーン推定部により前記シーンが推定された後に、前記作業に関する対象物の画像である第2の画像を取得し、前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、前記連関性の重み変数に基づいてチャンクを推定するチャンク推定手段と、前記シーン推定手段により推定された前記シーン及び前記チャンク推定手段により推定された前記チャンクと、前記資格IDと、に基づいて参照情報を取得し、取得した前記参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、前記オブジェクトモデルを特定するオブジェクトモデル特定手段と、前記オブジェクトモデル特定手段により特定された前記オブジェクトモデルが有する複数の表示領域に、前記参照情報を割り当てる割当手段と、前記オブジェクトモデル特定手段により特定された前記オブジェクトモデルと、前記割当部により割り当てられた前記参照情報とを出力する出力手段と、を備えること、を特徴とする。
第3発明に係る情報表示プログラムは、使用者が対象物に対して行う作業の支援を情報表示装置に行わせる情報表示プログラムであって、前記使用者を識別する資格ID、部門ID、エリアIDを少なくとも含むロールテーブルを記憶する記憶ステップと、前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像と、前記使用者がいる位置の情報である位置情報と、前記ロールテーブルを参照して前記使用者の作業に関する前記資格ID、前記エリアID、及び前記部門IDを含む作業関連情報と、を含む評価対象情報を取得する取得ステップと、前記取得ステップにより取得された前記評価対象情報に基づいて、前記評価対象情報と、前記シーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用し、前記連関性の重み変数に基づいて前記使用者が前記作業を行う前記シーンを推定するシーン推定ステップと、前記取得ステップは、前記シーン推定ステップにより前記シーンが推定された後に、前記作業に関する対象物の画像である第2の画像を取得し、前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、前記連関性の重み変数に基づいてチャンクを推定するチャンク推定ステップと、前記シーン推定ステップにより推定された前記シーン及び前記チャンク推定ステップにより推定された前記チャンクと、前記資格IDと、に基づいて参照情報を取得し、取得した前記参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、前記オブジェクトモデルを特定するオブジェクトモデル特定ステップと、前記オブジェクトモデル特定ステップにより特定された前記オブジェクトモデルが有する複数の表示領域に、前記参照情報を割り当てる割当ステップと、前記オブジェクトモデル特定ステップにより特定された前記オブジェクトモデルと、前記割当部により割り当てられた前記参照情報とを出力する出力ステップと、を情報表示装置に実行させること、を特徴とする。
第4発明に係る学習方法は、機械学習によりデータベースを生成する学習方法であって、熟練者が用いる使用者端末を介して取得された作業のシーン、前記熟練者の位置情報及び前記熟練者を識別する部門ID及びエリアIDを少なくとも含む情報を含む評価対象情報と、前記使用者端末を用いて取得した前記熟練者の作業に関するシーンIDを含む参照情報と、を一対の学習データとして、前記使用者端末を操作する前記シーンにおける作業の種類毎に複数取得する取得ステップと、複数の前記学習データを用いた機械学習により、複数の前記評価対象情報と、複数の前記シーン情報との間における連関性が記憶された前記データベースを生成する学習ステップと、を備えることを特徴とする。
第5発明に係る学習方法は、機械学習によりデータベースを生成する学習方法であって、熟練者が用いる使用者端末を介して取得された作業対象の対象物、前記対象物の機器に対する操作情報及び前記熟練者を識別する資格IDを含む情報を含む評価対象情報と、前記使用者端末を用いて取得した前記熟練者が参照する前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDを含む参照情報と、を一対の学習データとして、前記使用者端末を操作する前記対象物の作業の種類毎に複数取得する取得ステップと、複数の前記学習データを用いた機械学習により、複数の前記評価対象情報と、複数の前記チャンク情報との間における連関性が記憶された前記データベースを生成する学習ステップと、を備えることを特徴とする。
第6発明に係るデータ構造は、保存部及び制御部を備えるコンピュータに用いられ、前記保存部に記憶される使用者の作業のシーンの内容を示すシーンIDを出力部に表示するためのデータ構造であって、使用者端末を用いて取得された作業場所のシーン、使用者の位置情報及び使用者の作業に関する情報を含む評価対象情報と、前記使用者端末を用いて取得した前記作業に関するシーンIDと、を一対の学習データとして、前記使用者端末を操作する前記シーンIDにおける作業の種類毎に複数取得し、複数の前記学習データは、前記コンピュータの備える制御部が実行するニューラルネットワークをモデルとした機械学習により、複数の前記評価対象情報と、複数の前記シーンIDとの間における連関性を含む学習済みモデルを生成するために用いられることを特徴とする。
第7発明に係るデータ構造は、保存部及び制御部を備えるコンピュータに用いられ、前記保存部に記憶される使用者のシ-ン作業に紐づき対象物の作業に関するチャンクIDを出力部に表示するためのデータ構造であって、使用者端末を介して取得された作業対象の対象物、前記対象物の機器に対する評価対象情報と、前記使用者端末を用いて取得した前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、を一対の学習データとして、前記使用者端末を操作する前記対象物の作業の種類毎に複数取得し、複数の前記学習データは、前記コンピュータの備える制御部が実行するニューラルネットワークをモデルとした機械学習により、複数の前記評価対象情報と、複数の前記チャンクIDとの間における連関性を含む学習済みモデルを生成するために用いられることを特徴とする。
本発明の実施の形態の一態様によれば使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を、使用者に提示し、情報提供の実効性、及び情報の有用性を向上させることができる情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造を提供することを実現できる。
以下、本発明を適用した実施形態における情報表示システム、及び情報表示方法の一例について、図面を参照しながら説明する。
(本実施形態:情報表示システム100)
図1~図11を参照して、本実施形態における情報表示システム100の構成の一例について説明する。図1は、本実施形態における情報表示システムの構成の一例を示す模式図である。
図1~図11を参照して、本実施形態における情報表示システム100の構成の一例について説明する。図1は、本実施形態における情報表示システムの構成の一例を示す模式図である。
<情報表示システム100>
情報表示システム100は、例えば図1に示すように使用者(例えばトレーニー)に対象物5で行う作業で必要となる参照情報を出力する情報処理装置1を有する。情報処理装置1は、例えば通信網4を介して、作業エリア50(例えば製造エリア)で作業を行う使用者が装着する使用者端末2、及び各種のデータをデータテーブルとして記憶するサーバ3に接続される。
情報表示システム100は、例えば図1に示すように使用者(例えばトレーニー)に対象物5で行う作業で必要となる参照情報を出力する情報処理装置1を有する。情報処理装置1は、例えば通信網4を介して、作業エリア50(例えば製造エリア)で作業を行う使用者が装着する使用者端末2、及び各種のデータをデータテーブルとして記憶するサーバ3に接続される。
情報表示システム100は、情報処理装置1により、例えば使用者が装着する使用者端末2を介して、使用者が使用者端末2の表示エリア2a越しに参照して作業を行う場所、出入り口、作業空間、またはスペースなどのエリアの画像(第1の画像)、使用者が各種の作業を行う対象物5の画像(第2の画像)、および使用者が作業を行う作業エリア内の位置に関する位置情報等を取得する。情報処理装置1は、使用者が作業を行う場所、位置の情報である位置情報の他に、例えば使用者と対象物5との各種の位置関係(例えば距離など)、使用者を識別する識別情報等の、各種の画像やデータ、数値、信号等を取得するようにしてもよい。
情報理端末1が取得する位置情報は、例えば使用者が作業する床面から対象物5までの高さ、床面から使用者が対象物5を作業する手、工具などの高さ、対象物の周囲の空間の距離などの各種の位置データ、使用者の位置を示す座標データ、使用者が移動した地点間の距離データ、使用者の姿勢や身体の部位、体位などを示す姿勢データであってもよい。さらに情報処理装置1は、作業を行う使用者を識別する使用者情報、使用者が作業を行う作業場所の識別情報を取得するようにしてもよい。
情報処理装置1が取得する画像は、例えば後述する使用者端末2に予め備わるカメラ(図示せず)により取得される。また情報処理装置1が取得する位置情報は、例えば使用者端末2に予め備わる距離センサー、加速度センサー、赤外線センサー、その他の各種の公知技術により開示されるセンサー(図示せず)により取得されるようにしてもよい。
情報処理装置1は、例えば取得した各種の画像、位置情報、及び作業関連情報に基づいて、サーバ3に予め記憶される各種のデータテーブルを参照し、使用者が参照すべき情報の絞り込みを行い、適宜に使用者端末2に参照情報を出力する。
情報処理装置1は、例えば図2に示すように使用者端末2を介して取得した取得データのうち第1の画像と位置情報とに基づいて、使用者が行う作業のシーンを推定する。情報処理装置1は、例えば作業に関係する対象物5の画像である第2の画像をさらに取得し、使用者が行う作業に関する細分化されたチャンク(参照情報)を推定する。
情報処理装置1は、推定されたこれらのシーン、およびチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報を表示するオブジェクトモデル6を特定し、特定したオブジェクトモデル6が有する表示領域8に、参照情報を表示内容8aとして割り当てを行い、オブジェクトモデル6と、オブジェクトモデル6の各々の表示領域8に割り当てられた参照情報の出力を行う。
情報処理装置1が出力する表示内容8aは、例えばチャンク、サマリー、コンテンツ(全体・差分)、作業チェック表、作業工程表、視点切替表示(熟練者・自分・俯瞰)、学習用収集情報、アラート表示、関連ナラティブ表示などとなる。これらの表示内容8aは、例えば製造エリア50で作業を行う使用者の使用者端末2によって受信され、使用者端末2の表示エリア2aに作業情報として表示される。
情報処理装置1が使用者端末2に出力する参照情報は、例えば使用者が参照する作業情報が分割又は示唆した情報であるチャンク、作業情報のサマリー、作業情報に関する各種のコンテンツの他、例えば作業情報の全体や、更新や追加された差分等の情報であってもよい。
情報処理装置1は、例えば使用者端末2を介して作業場や対象物5の画像、使用者がいる位置の情報である位置情報と、作業に関係する作業関連情報と、を少なくとも含む評価対象情報を逐次に取得する。情報処理装置1は、取得したそれら各種の情報に基づいて、使用者が必要な際に、使用者に絞り込まれた参照情報を出力する。情報処理装置1により出力される参照情報は、例えば使用者端末2の表示エリア2aにオブジェクトモデル6として表示される。使用者端末2の表示エリア2aに表示されるオブジェクトモデル6は、例えば複数の表示領域8を有しており、各々の表示領域8に使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報が表示内容8aとして表示される。
<情報処理装置1>
次に、図3を参照して、本実施形態における情報処理装置1の一例を説明する。図3(a)は、本実施形態における情報処理装置1の構成の一例を示す模式図であり、図3(b)は、本実施形態における情報処理装置1の機能の一例を示す模式図である。
次に、図3を参照して、本実施形態における情報処理装置1の一例を説明する。図3(a)は、本実施形態における情報処理装置1の構成の一例を示す模式図であり、図3(b)は、本実施形態における情報処理装置1の機能の一例を示す模式図である。
情報処理装置1として、例えばスーパーコンピュータ、サーバーコンピュータ、又はメインフレーム・汎用コンピュータ等の電子対象物が用いられる。情報処理装置1は、例えば使用者端末2、サーバ3と接続される。情報処理装置1は、例えば図3(a)に示すように、筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105~107とを備える。各構成101~107は、内部バス110により接続される。
CPU101は、情報処理装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、設定情報データベースや参照データベース等の各種情報が保存される。保存部104として、例えばHDD(Hard Disk Drive)の他、SSD(Solid State Drive)等のデータ保存装置が用いられる。なお、例えば情報処理装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。GPUを有することで、通常よりも高速演算処理が可能となる。
I/F105は、例えばインターネット等の通信網4を介して、使用者端末2と接続されるほか、例えばその他の使用者(例えば熟練者であるトレーニーの指導者、または熟練者であるトレーナー、トレーニー、及びトレーナーを管理、指導する監視者などの装置、サーバ3が記憶する各種のデータベース、Web検索サービス、その他のウェブサイト等との各種情報の送受信を行うためのインターフェースである。
I/F106は、例えば入力部108との情報の送受信を行うためのインターフェースである。入力部108として、例えばキーボードが用いられる。情報処理装置1の使用者等は、入力部108を介して、例えば各種情報、又は情報処理装置1の制御コマンド等を入力する。I/F107は、表示部109との各種情報の送受信を行うためのインターフェースである。表示部109は、保存部104に保存された各種情報、順位計測、又は評価結果等を表示する。表示部109として、ディスプレイが用いられ、例えばタッチパネル式の場合、入力部108と一体に設けられる。
図3(b)は、情報処理装置1の機能の一例を示す模式図である。情報処理装置1は、シーン推定部12と、チャンク推定部13と、オブジェクトモデル特定部14と、割当部15と、出力部16と、手本作業生成部17と、手本作業登録部17aと、手本手順登録部17bと、手本作業決定部17cと、更新部18と、記憶部19と、学習部20とを有してもよい。なお、図3(b)に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現され、例えば人工知能等により制御されてもよい。
<取得部11>
取得部11は、例えば使用者、または使用者端末2を特定する識別情報(固有情報)の他、使用者が作業する作業場所に関する環境情報、使用者の作業や動き、使用者の生体情報などに関する各種の情報、対象物に関する各種の情報等のデータを受信する。取得部11が取得した各種の情報は、例えばサーバ3の各種のデータを対応するデータテーブル(図示せず)に、各々に対応付けられて記憶される。
取得部11は、例えば使用者、または使用者端末2を特定する識別情報(固有情報)の他、使用者が作業する作業場所に関する環境情報、使用者の作業や動き、使用者の生体情報などに関する各種の情報、対象物に関する各種の情報等のデータを受信する。取得部11が取得した各種の情報は、例えばサーバ3の各種のデータを対応するデータテーブル(図示せず)に、各々に対応付けられて記憶される。
<シーン推定部12>
シーン推定部12は、使用者がいる位置の情報である位置情報と、作業に関係する作業関連情報と、を少なくとも含む評価対象情報を取得し、評価対象情報と、シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用して、シーンを推定する。
シーン推定部12は、使用者がいる位置の情報である位置情報と、作業に関係する作業関連情報と、を少なくとも含む評価対象情報を取得し、評価対象情報と、シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用して、シーンを推定する。
シーン推定部12は、具体的にはシーンIDとシーンの名称であるシーン名とが1対1で紐づけられたテーブルであるシーンテーブルから、シーンIDを検索キーとしてシーン名を取得して、シーン名を使用者端末2に使用者端末2に送信する。使用者端末2は、シーン推定部12から受信したシーン名を表示エリア2aに提示する。
シーン推定部12により推定されたシーン名は、例えば後述するオブジェクトモデル特定部14により、推定されたシーン名に基づいて特定されるオブジェクトモデル6に表示される。シーン名は、特定されたオブジェクトモデル6が有する表示領域8に、使用者が必要な際に、使用者に絞り込まれた参照情報として表示される。
<チャンク推定部13>
チャンク推定部13は、シーン推定部12により推定されたシーンにより作業に関係する対象物の画像である第2の画像を取得し、使用者が行う作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、チャンクを推定する。
チャンク推定部13は、シーン推定部12により推定されたシーンにより作業に関係する対象物の画像である第2の画像を取得し、使用者が行う作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、チャンクを推定する。
チャンク推定部13は、複数の第2の学習済みモデルのうちの1つを、シーンIDと1対1に対応付けられた学習モデルIDを用いて選定する。またチャンク用メタIDは対象物5の性質に関する情報であるチャンク用メタ値を一意に示す。
チャンク推定部13は、学習モデルIDとシーンIDとが1対1で紐づけられたテーブルである学習モデルテーブルからシーンIDを検索キーとして学習モデルIDを取得する。またチャンク推定部13は、チャンクIDとチャンク用メタIDとが1対1又は1対複数で紐づけられたテーブルであるチャンク・メタテーブルからチャンク用メタIDを検索キーとしてチャンクIDを取得する。
またチャンク推定部13は、チャンクテーブルからチャンクIDを検索キーとしてチャンクの概要を示すチャンクサマリを取得して、チャンクサマリを使用者端末2に送信する。使用者端末2は、チャンク推定部13から受信したチャンクサマリを使用者に提示する。使用者端末2は、チャンク推定部13から受信したシーン名を表示エリア2aに提示する。
チャンク推定部13により推定されたチャンクは、例えば後述するオブジェクトモデル特定部14により、推定されたチャンクに基づいて特定されるオブジェクトモデル6に表示される。チャンクは、特定されたオブジェクトモデル6が有する表示領域8に、使用者が必要な際に、使用者に絞り込まれた参照情報として表示される。
またチャンク推定部13は、チャンクテーブルからチャンクIDを検索キーとして新たにチャンクを取得した場合は、このチャンクを使用者端末2に送信するようにしてもよい。使用者端末2は、チャンク推定部13からすでに受信したオブジェクトモデル6の対応する表示領域8にチャンクを表示することで、使用者に提示する。チャンクの表示は、例えば後述するオブジェクトモデル特定部14によりオブジェクトモデル6が特定され、割当部15により割当られた表示領域8に表示されてもよい。
なおチャンクテーブルは、チャンクIDにチャンクとチャンクサマリとハッシュ値とがそれぞれ1対1で紐づけられたテーブルである。なおハッシュ値は例えばチャンクが変更されたか否かを確認するために用いられる。
<オブジェクトモデル特定部14>
オブジェクトモデル特定部14は、シーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、オブジェクトモデルを特定する。
オブジェクトモデル特定部14は、シーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、オブジェクトモデルを特定する。
オブジェクトモデル特定部14は、例えば取得部11により取得され、サーバ3に記憶されたオブジェクトモデルテーブルを参照し、使用者が必要な際に、使用者に絞り込まれた参照情報を表示するのに適した表示領域8を有するオブジェクトモデル6を特定する。
オブジェクトモデル特定部14は、具体的には図8に示すオブジェクトモデルテーブルを参照し、例えば推定されたシーンID、チャンクIDなどに基づき、作業エリア、使用者の位置等の各種の情報により、その条件で表示することができるオブジェクトモデル6を特定する。
オブジェクトモデル特定部14は、例えばオプジェクトモデルIDで識別されるオブジェクトモデル6の基本サイズ、表示座標、エリアIDなどにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示できるオブジェクトモデル6を特定する。
オブジェクトモデル特定部14は、例えばオブジェクトモデル6の特定に、例えば使用者のスキル情報を特定する資格ID、作業を行う空間情報を特定する表示座標、対象物の特徴情報を特定する基本サイズ、又は作業の作業レベル情報の少なくとも何れかに基づいて特定するようにしてもよい。
オブジェクトモデル特定部14は、推定されたシーンID、チャンクIDなどに基づきオブジェクトモデルテーブルを参照し、例えばオブジェクトモデルIDで対応付けられる形状、基本サイズ、追加個数等の各種のデータから、例えば少なくとも2面以上の表示領域8を備える形状、同一、または異なるオブジェクトモデル6が複数表示することのできるオブジェクトモデル6を特定するようにしてもよい。
オブジェクトモデル特定部14は、推定されたシーンID、チャンクIDなどに基づきオブジェクトモデルテーブルを参照し、例えばオブジェクトモデル6に対する各種の操作情報により、作業の状態に基づいて、回転表示、拡大表示、縮小表示、突出表示、振動表示、状態表示、変色表示、又は濃淡表示の少なくとも何れかの形態で表示することができるオブジェクトモデル6を特定するようにしてもよい。
オブジェクトモデル特定部14は、例えば対象物5との使用者の位置関係、利き手、使用言語等の各種の情報に基づいて特定され、表示される位置が決められるようにしてもよい。オブジェクトモデル特定部14は、例えばチャンク推定部13により推定されたチャンクの種類、チャンクの文字数等に基づいて表示可能な表示領域を有するオブジェクトモデル6を特定し、割当部15は特定されたオブジェクトモデル6の各々の表示領域にチャンクの割り当てを行うようにしてもよい。
オブジェクトモデル特定部14は、例えば使用者によって予め表示されるオブジェクトモデル6がカスタマイズされて登録されている場合は、カスタマイズされたオブジェクトモデル6を優先して表示するようにしてもよい。
オブジェクトモデル6は、例えば使用者が装着する使用者端末2を介して、オブジェクトモデル6の左右、または上下の辺の何れかの辺を掴んで回転、または移動させるようにしてもよい。
オブジェクトモデル特定部14は、例えば割当部15により割り当てられた参照情報が、緊急情報等の確実に情報を提示する必要がある場合には、特定されたオブジェクトモデル6を使用者方向にせり出して表示させるようにしてもい。
<割当部15>
割当部15は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6が有する表示領域8に、シーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報の割り当てを行う。
割当部15は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6が有する表示領域8に、シーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報の割り当てを行う。
割当部15は、具体的には図9に示すオブジェクト割当テーブルを参照し、例えば推定されたシーンID、チャンクIDで示される表示可能情報、作業エリア、使用者の位置、チャンクのデータ量等の各種の情報に基づいて、オブジェクトモデル特定部14により特定されたオブジェクトモデル6が有する表示領域8への割り当てを行う。
割当部15は、例えば推定されたチャンクの割り当てを行う場合、オブジェクト割当テーブルの他に、図6に示すチャンクテーブルを参照し、推定されたチャンクの割り当てを行う。この場合、チャンクテーブルの注目IDを参照し、第2の画像に紐づいて設定される注目情報の有無を判別する。
割当部15は、図6に示されるチャンクテーブル、図10で示される注目テーブル、および図10で示されるアノテーションテーブルの注目IDに基づいて、例えば推定されたチャンクよりも優先する表示、又はチャンクに付随する表示されるように参照情報(注目情報、注目情報データなど)の割り当てを行う。これにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報より注目される情報、または上位の情報を付随して、または優先するようなオブジェクトモデル6による表示として使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることが可能となる。
割当部15は、推定されたシーンID、チャンクIDなどに基づいてアノテーションテーブルを参照し、例えば注目IDで各々に紐づけられる各種の映像やデータの全部、または一部を、それら映像が撮影された時間、長さ、視点に基づいて、割り当てるようにしてもよい。
割当部15は、取得部11が取得した第1の画像、第2の画像、位置情報に加え、例えば環境情報、使用者の作業や動き、使用者の生体情報などに関する各種の情報に基づいて、オブジェクトモデル6への表示領域8の表示を割り当てる。割当部15は、使用者端末2の透過型ディスプレイに表示される仮想現実と、が重畳して使用者に対して表示されるように、オブジェクトモデル6と、オブジェクトモデル6の各々の表示領域8と、表示領域8に割り当てる参照情報を設定する。
割当部15は、例えば使用者がいる位置の情報である位置情報と、作業に関係する作業関連情報と、を少なくとも含む評価対象情報を取得する。作業関連情報は、例えば対象物5の周囲の情報、使用者が作業する利き腕などであり、これらに基づいて、例えば「使用者の作業位置は対象物5に対して右寄り」、「使用者と対象物5の距離は3メートル」、「対象物5の周囲の配置物の無し」、「使用者の利き腕は右」などを確認する。
割当部15は、確認の結果に基づいて、例えば「対象物5の左側の空間が空いている」、「使用者は右利き」、「推定されたチャンク量は2画面」であると判断した場合は、対象物5の左側の空間に表示できる「cube_02(立方体)」、「2領域に割り当て」、「オブジェクトモデル6のサイズ(W:D:H)」と「対象物の左側の表示座標(XX:YY:ZZ)」、「チャンク(1B827-01.txt_0)」等の表示に関する情報を表示領域8に設定する。
割当部15は、オブジェクトモデル特定部14により、例えば作業場所であるシーン、使用者と対象物との位置関係、参照情報であるチャンクのデータまたは情報量に基づいて特定されたオブジェクトモデル6が立方体で、複数の場合は、例えば複数の立方体を、上下、または左右に位置付けて表示するようにしてもよい。
割当部15は、オブジェクトモデル特定部14により、例えば作業場所であるシーン、使用者と対象物との位置関係、参照情報であるチャンクのデータまたは情報量に基づいて特定されたオブジェクトモデル6が立方体で、複数の場合は、例えば複数の立方体を、上下、または左右に位置付け、位置づけられた各々の立方体の表示領域に参照情報を表示するよう割り当てるようにしてもよい。
割当部15は、例えば推定されたチャンクの他に、オブジェクトモデル6の上面に作業の状態などを、例えば顔の喜怒哀楽で示す『フェイスマーク』として割り当てて表示するようにしてもよい。フェイスマークは、例えば『平常(笑顔マーク)』、『異常(悲しみマーク)』、または『通知あり(発話マーク)』などで示すようにしてもよい。
<出力部16>
出力部16は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6と、割当部15により割り当てられた参照情報を出力する。出力部16は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6と、オブジェクトモデル6の表示領域8に関する情報、表示領域8に表示する参照情報を出力する。
出力部16は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6と、割当部15により割り当てられた参照情報を出力する。出力部16は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6と、オブジェクトモデル6の表示領域8に関する情報、表示領域8に表示する参照情報を出力する。
出力部16は、第1の画像、位置情報、及び第2の画像の少なくとも何れかに基づき特定されたオブジェクトモデル6を、例えば使用者端末2に表示される仮想表示空間内において、対象物5の近傍(周囲)に出力するようにしてもよい。
出力部16は、第1の画像、位置情報、及び第2の画像の少なくとも何れかに基づき特定されたオブジェクトモデル6を、例えば使用者端末2に表示される仮想表示空間内において、対象物5の近傍(周囲)に固定するように出力するようにしてもよい。
<手本作業生成部17>
手本作業生成部17は、作業を行う使用者を、図11に示すロールテーブルに記憶される各種の情報を参照し、例えば使用者の役割、資格ID、部門、エリアに関する応じた作業に関する情報を生成する。手本作業生成部17は、トレーナー(熟練者)が使用者である場合の他、例えばインスペクター(監視者)として、各々の使用者が対象物5に対して行う作業の支援を行う。
手本作業生成部17は、作業を行う使用者を、図11に示すロールテーブルに記憶される各種の情報を参照し、例えば使用者の役割、資格ID、部門、エリアに関する応じた作業に関する情報を生成する。手本作業生成部17は、トレーナー(熟練者)が使用者である場合の他、例えばインスペクター(監視者)として、各々の使用者が対象物5に対して行う作業の支援を行う。
手本作業生成部17は、例えば熟練者であるトレーニーが作業で参照するための手本となる参照情報を登録し、登録した手本の手順を作業に応じて設定し、設定した手本作業の公開可否を決定する。手本作業生成部17は、手本作業登録部17a、手本手順登録部17b、手本作業決定部17cにより構成される。
手本作業生成部17は、手本作業に関する各種の情報を、例えば後述するカメラテーブル、ロールテーブル、アノテーションテーブル、注目テーブルの各々に対応付けて登録する。手本作業生成部17は、カメラテーブル、ロールテーブルを参照し、例えば手本作業の新規生成や追加生成を行う。さらに、手本作業生成部17は、各種の手本情報の手順の関連付け、手順が関連付けられた手本情報の全体、または一部の公開等の決定を行う。
<手本作業登録部17a>
手本作業登録部17aは、熟練者による作業の作業映像情報を含む手本作業情報の手本内容を登録する。手本作業登録部17aは、例えばカメラテーブル、ロールテーブル、アノテーションテーブル、注目テーブルの各々を参照し、手本情報を生成する対象のエリア、使用者のロール、資格などの各種の情報に基づき、登録の対象となる手本情報を生成する。
手本作業登録部17aは、熟練者による作業の作業映像情報を含む手本作業情報の手本内容を登録する。手本作業登録部17aは、例えばカメラテーブル、ロールテーブル、アノテーションテーブル、注目テーブルの各々を参照し、手本情報を生成する対象のエリア、使用者のロール、資格などの各種の情報に基づき、登録の対象となる手本情報を生成する。
<手本手順登録部17b>
手本手順登録部17bは、手本作業登録部17aにより生成された手本作業情報の手本順序を登録する。手本手順登録部17bは、例えばカメラテーブル、ロールテーブル、注目テーブルの各々を参照し、例えば異なるカメラで撮影された同一の作業の作業映像情報を、時系列の作業手順としてアノテーションテーブルに登録する。
手本手順登録部17bは、手本作業登録部17aにより生成された手本作業情報の手本順序を登録する。手本手順登録部17bは、例えばカメラテーブル、ロールテーブル、注目テーブルの各々を参照し、例えば異なるカメラで撮影された同一の作業の作業映像情報を、時系列の作業手順としてアノテーションテーブルに登録する。
<手本作業決定部17c>
手本作業決定部17cは、手本作業登録部17aにより登録される手本内容と、手本手順登録部17bにより登録される手本順序と、それらを一意に示すチャンクIDとの紐づけを行い、手本作業情報として決定する。
手本作業決定部17cは、手本作業登録部17aにより登録される手本内容と、手本手順登録部17bにより登録される手本順序と、それらを一意に示すチャンクIDとの紐づけを行い、手本作業情報として決定する。
手本作業決定部17cによりチャンクIDとの紐づけられた手本作業情報は、前述のチャンク推定部13により作業に関係する対象物の画像である第2の画像が取得され、使用者が行う作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、推定されることとなる。
<更新部18>
更新部18は、例えばサーバ3に記憶されるデータベースを更新する。更新部18は、第1の画像に関係する情報と、シーンを一意に示すシーンIDに関係する情報の間の関係を新たに取得した場合には、関係を連関性に反映させる。
更新部18は、例えばサーバ3に記憶されるデータベースを更新する。更新部18は、第1の画像に関係する情報と、シーンを一意に示すシーンIDに関係する情報の間の関係を新たに取得した場合には、関係を連関性に反映させる。
更新部18は、第2の画像と、使用者が行う作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDの間の関係を新たに取得した場合には、関係を連関性に反映させる。
さらに、更新部18は、推定されたシーン及びチャンクに基づいて、チャンクを表示する表示領域を有するオブジェクトモデルを一意に示すオブジェクトモデルIDの間の関係を新たに取得した場合には、関係を連関性に反映させる。
<記憶部19>
記憶部19は、保存部104に保存されたデータベース等の各種データを必要に応じて取出す。記憶部19は、各構成12~18、20により取得又は生成された各種データを、必要に応じて保存部104に保存する。
記憶部19は、保存部104に保存されたデータベース等の各種データを必要に応じて取出す。記憶部19は、各構成12~18、20により取得又は生成された各種データを、必要に応じて保存部104に保存する。
<学習部20>
学習部20は、例えば第1の画像と、第1の画像に関係する情報と、シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習モデルを後述する機械学習によりデータベースを生成する。
学習部20は、例えば第1の画像と、第1の画像に関係する情報と、シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習モデルを後述する機械学習によりデータベースを生成する。
また学習部20は、作業に関係する対象物の画像である第2の画像と、第2の画像と、使用者が行う作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習モデルを、機械学習によりデータベースを生成する。機械学習には、例えば後述する畳み込みニューラルネットワーク(CNN:Convolution Neural Network)等が用いられてもよい。
<監視部21>
監視部21は、例えばシーン推定部12において推定された使用者の作業を監視する。監視部21は、例えば作業の監視を行う監視者(インスペクター)が使用する監視者端末(図示せず)を介して、後述する図16(b)に示す画面によりリアルタイムの監視を行う。リアルタイム監視は、例えば作業場所の天井などに設置される監視カメラの映像を見ながら、使用者(トレーニー、またはトレーナなど)の作業を俯瞰した監視が行われる。監視カメラは、例えば複数台が設置されていてもよく、監視カメラの切り替えなどは、監視者により切り替えられる。
監視部21は、例えばシーン推定部12において推定された使用者の作業を監視する。監視部21は、例えば作業の監視を行う監視者(インスペクター)が使用する監視者端末(図示せず)を介して、後述する図16(b)に示す画面によりリアルタイムの監視を行う。リアルタイム監視は、例えば作業場所の天井などに設置される監視カメラの映像を見ながら、使用者(トレーニー、またはトレーナなど)の作業を俯瞰した監視が行われる。監視カメラは、例えば複数台が設置されていてもよく、監視カメラの切り替えなどは、監視者により切り替えられる。
監視部21は、使用者の作業と手本情報、普段とは異なる周辺状況、または作業手順との差分などに基づいて、使用者に対する指摘情報を通知する。管理部21は、例えば録画再生された使用者の作業映像と、熟練者により予め登録された手本情報、または作業手順に基づいて、それら画像の差分を検出し、検出結果を出力部16により監視者の監視者端末に出力するようにしてもよい。
<使用者端末2>
使用者端末2は、例えば作業エリア50(例えば製造エリア)で作業を行う使用者に対して、対象物5の各種の作業を補助するための各種の情報(例えばチャンク、サマリー、コンテンツ(全体・差分)、作業チェック表、作業工程表、視点切替表示(熟練者・自分・俯瞰)、学習用収集情報、アラート表示、関連ナラティブ表示など)や、ユーザインタフェース等を表示、または通知する装置である。使用者端末2は、例えば情報処理装置1によって出力された情報を、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報として、表示エリア2aに表示する。
使用者端末2は、例えば作業エリア50(例えば製造エリア)で作業を行う使用者に対して、対象物5の各種の作業を補助するための各種の情報(例えばチャンク、サマリー、コンテンツ(全体・差分)、作業チェック表、作業工程表、視点切替表示(熟練者・自分・俯瞰)、学習用収集情報、アラート表示、関連ナラティブ表示など)や、ユーザインタフェース等を表示、または通知する装置である。使用者端末2は、例えば情報処理装置1によって出力された情報を、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報として、表示エリア2aに表示する。
使用者端末2は、例えば使用者の頭部に装着されて使用されるヘッドマウントディスプレイ(HMD:Head Mounted Display)、により実現される。このようなヘッドマウントディスプレイでは、例えば仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)、あるいは複合現実(MR:Mixed Reality)などの技術を利用し、使用者に対して情報表示や通知する。
使用者端末2は、例えば拡張現実の技術を利用する場合、透過型のディスプレイを介して対象物5が視認できる現実の作業と、使用者端末2の透過型ディスプレイに表示される仮想現実(例えばオブジェクトモデルとチャンク等を含む)とを重畳して、使用者に対して表示する。
使用者端末2は、例えば使用者端末ウェアラブル端末が備える表示エリア2aへの表示の他、例えば使用者端末2が備えるスピーカからの音(音声や警告音等)の出力や、使用者端末2が備えるバイブレーション機能、警告ランプの点滅、各種のインジケータによる効果等により実現するようにしてもよい。使用者端末2によるこれらの各種の処理は、例えば使用者端末2と、情報処理装置1と、サーバ3と、が通信網4を介して各々に通信を行い、これらが協働することによって実現される。
<サーバ3>
サーバ3は、通信網4を介して情報処理装置1と接続される。サーバ3は、過去の各種データ等が記憶され、必要に応じて情報処理装置1から各種データが送信される。サーバ3は、例えば情報処理装置1の備える機能のうち、少なくとも一部の機能を備えてもよく、例えば情報処理装置1の代わりに少なくとも一部の処理を行ってもよい。サーバ3は、例えば情報処理装置1の保存部104に記憶された各種データのうち少なくとも一部が記憶され、例えば保存部104の代わりに用いられてもよい。
サーバ3は、通信網4を介して情報処理装置1と接続される。サーバ3は、過去の各種データ等が記憶され、必要に応じて情報処理装置1から各種データが送信される。サーバ3は、例えば情報処理装置1の備える機能のうち、少なくとも一部の機能を備えてもよく、例えば情報処理装置1の代わりに少なくとも一部の処理を行ってもよい。サーバ3は、例えば情報処理装置1の保存部104に記憶された各種データのうち少なくとも一部が記憶され、例えば保存部104の代わりに用いられてもよい。
<通信網4>
通信網4は、例えば情報処理装置1が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。
通信網4は、例えば情報処理装置1が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。
<データベース>
保存部104に保存されるデータベースには、予め取得された過去の使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報を含む評価対象情報に紐づく参照情報との間における連関性が記憶され、例えば連関性を有する複数の学習モデルが記憶される。データベースには、例えば過去の過去の使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報が記憶されてもよい。連関性は、例えば過去の評価対象情報、及び参照情報を一組の学習データとして、複数の学習データを用いた機械学習により構築される。学習方法として、例えば畳み込みニューラルネットワーク等の深層学習が用いられる。
保存部104に保存されるデータベースには、予め取得された過去の使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報を含む評価対象情報に紐づく参照情報との間における連関性が記憶され、例えば連関性を有する複数の学習モデルが記憶される。データベースには、例えば過去の過去の使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報が記憶されてもよい。連関性は、例えば過去の評価対象情報、及び参照情報を一組の学習データとして、複数の学習データを用いた機械学習により構築される。学習方法として、例えば畳み込みニューラルネットワーク等の深層学習が用いられる。
この場合、例えば連関性は、多対多の情報(過去の評価対象情報に含まれる複数のデータ、対、参照情報に含まれる複数のデータ)の間における繋がりの度合いを示す。連関性は、機械学習の過程で適宜更新される。即ち、連関性は、例えば過去の使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報に基づいて最適化された関数を示す。このため、過去に使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報を評価した結果を全て踏まえて構築された連関性を用いて、評価対象情報に対する評価結果が生成される。これにより、使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報が様々なケースであっても、最適な評価結果を生成することができる。また、評価対象情報が、過去の評価対象情報と同一又は類似である場合のほか、非類似である場合においても、最適な評価結果を定量的に生成することができる。なお、機械学習を行う際に汎化能力を高めることで、未知の評価対象情報に対する評価精度の向上を図ることができる。
なお、連関性は、例えば過去の評価対象情報に含まれる複数のデータと、参照情報に含まれる複数のデータとの間における繋がりの度合いを示す複数の連関度を有してもよい。連関度は、例えば学習モデルがニューラルネットワークで構築される場合、重み変数に対応させることができる。
過去の評価対象情報は、上述した評価対象情報と同種の情報を示す。過去の評価対象情報は、例えば過去にシーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報を評価した際に取得された評価対象情報を複数含む。
参照情報は、過去の評価対象情報に紐づき、シーンの画像である第1の画像、使用者がいる位置の情報である位置情報、及び作業関連情報に関する情報を示す。参照情報は、推定されるシーンのシーンIDを示すほか、シーンと絞り込むためのシーン名、シーンリストなどの情報を含んでもよい。なお、参照情報に含まれる具体的な内容や一意に示すIDは、任意に設定することができる。
連関性は、例えば図4に示すように、過去の評価対象情報と参照情報(シーンID)との間における繋がりの度合いを示してもよい。この場合、連関性を用いることで、過去の評価対象情報に含まれる複数のデータ(図4では、例えば「第1の画像データA」~「第1の画像データC」、「位置データA」~「位置データC」、「関連データA」~「関連データC」)のそれぞれに対し、参照情報に含まれる複数のデータ(図4では「OFD」~「OFF」)の関係の度合いを紐づけて記憶させることができる。このため、例えば連関性を介して、過去の評価対象情報に含まれる1つのデータに対して、参照情報に含まれる複数のデータを紐づけることができ、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示でき、情報提供の実効性、及び情報の有用性を向上させることができる。
連関性は、例えば過去の評価対象情報に含まれる複数のデータと、参照情報に含まれる複数のデータとをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、過去の評価対象情報に含まれる「第1の画像データA」、「位置データA」、「関連データA」は、参照情報に含まれるシーンID「OFD」との間の連関度AAAA「39%」を示し、参照情報に含まれるシーンID「OFE」との間の連関度AAAB「45%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。なお、上述した機械学習により連関性を構築する際、連関性が3段階以上の連関度を有するように設定してもよい。
また、例えば図5に示すように、過去の作業対象の対象物の画像データ(第2の画像データ)、対象物に対する作業情報(チャンク)、及び作業関連情報と、参照情報(チャンク用メタID)との間における繋がりの度合いを示してもよい。この場合、連関性を用いることで、過去の評価対象情報に含まれる複数のデータ(図5では、例えば「第2の画像データA」~「第2の画像データC」、「チャンクA」~「チャンクC」、「関連データA」~「関連データC」)のそれぞれに対し、参照情報に含まれる複数のデータ(図5では「24FD,83D90」~「84D9,54BB」)の関係の度合いを紐づけて記憶させることができる。このため、例えば連関性を介して、過去の評価対象情報に含まれる1つのデータに対して、参照情報に含まれる複数のデータを紐づけることができ、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示でき、情報提供の実効性、及び情報の有用性を向上させることができる。
連関性は、例えば過去の評価対象情報に含まれる複数のデータと、参照情報に含まれる複数のデータとをそれぞれ紐づける複数の連関度を有する。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。例えば、過去の評価対象情報に含まれる「第2の画像データA」、「チャンクA」、「関連データA」は、参照情報に含まれるシーンID「24FD,83D9」との間の連関度AAAA「15%」を示し、参照情報に含まれるシーンID「25FD」との間の連関度AAAB「92%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、例えば連関度が高いほど、各データの繋がりが強いことを示す。なお、上述した機械学習により連関性を構築する際、連関性が3段階以上の連関度を有するように設定してもよい。
次に図6を用いて保存部104に記憶されている情報であるシーンテーブル、学習モデルテーブル、チャンク・メタテーブル、チャンクテーブルについて説明する。図6は、本実施の形態による保存部104に記憶されている情報を示す図である。
シーンテーブルなどに格納されるシーンIDは、例えば「0FD」などの3桁の16進数とする。またシーンテーブルなどに格納されるシーン名は、例えば製造エリアや検査エリアなどとする。
学習モデルテーブルなどに格納される学習モデルIDは、例えば「MD1」のように2文字の英字と1桁の10進数で表される。
チャンクテーブルに格納されるチャンクは、例えば「1B827-01.txt_0」のように対象となるチャンクと対応するコンテンツのファイル名と1桁の10進数とで示され、対象となるチャンクと対応するコンテンツの実体の一部分へのポインタなどが格納される。
チャンクテーブルに格納されるチャンクサマリは、例えば「開梱のため、…」といったチャンクの内容を要約した文書とする。チャンクテーブルに格納されるハッシュ値は、例えば「564544d8f0b746e」のように15桁の16進数とする。またチャンクを優先する表示、又はチャンクに付随して表示される注目IDとして例えば「55」のようなIDが格納される。
次に図7を用いて保存部104に記憶されている情報であるシーン・コンテンツテーブル、コンテンツ・チャンクテーブル、チャンク・メタテーブル、チャンク用メタテーブルについて説明する。図7は、本実施の形態による保存部104に記憶されている情報を示す図である。
シーン・コンテンツテーブル、コンテンツ・チャンクテーブル及びチャンク・メタテーブルに示すように、作業情報のデータ構造は、チャンク用メタIDを最下層である第1の層とし、チャンクIDを第2の層とし、コンテンツIDを第3の層とし、シーンIDを最上層である第4の層とする階層構造を有している。
コンテンツ・チャンクテーブルなどに格納されるチャンクIDは、例えば「82700-01」のように、5桁と2桁の10進数で表される。チャンク・メタテーブルなどに格納されるチャンク用メタIDは、例えば「24FD」のように4桁の16進数とする。
チャンク用メタテーブルに格納されるチャンク用カテゴリIDは、例えば「394」のように3桁の10進数とする。チャンク用メタテーブルに格納されるチャンク用カテゴリ名は、例えばチャンクを参照する使用者の種別「一般向け」、「手本作業」、「管理用」などとする。チャンク用メタテーブルに格納されるチャンク用メタ値は、例えば使用者が参照するチャンクのレベルや取り扱いを示す情報として「初級」、「上級」、「マル秘」などとする。なおチャンク用カテゴリID及びチャンク用カテゴリ名の値はNULLであってもよい。
チャンク用メタIDの組み合わせは、(24FD,83D9)、(25FD)などとし、1又は複数のチャンク用メタIDを組み合わせたものとする。
コンテンツテーブルなどに格納されるコンテンツIDは、例えば「1B827-01」のように5桁の16進数と2桁の10進数とで表される。コンテンツテーブルなどに格納されるコンテンツは、例えば「1B827-01.txt」のようにコンテンツIDであるファイル名が拡張子付きで示され、コンテンツの実体へのポインタなどが格納される。
次に図8を用いて保存部104に記憶される情報として、例えばオブジェクトモデルテーブルについて説明する。図8は、本実施の形態による保存部104に記憶されている情報を示す図である。
オブジェクトモデルテーブルに示すように、オブジェクトモデル6を識別する情報として、例えばオブジェクトモデル6を識別するオブジェクトモデルID、オブジェクトモデル6に対する操作の種別を表す操作情報、オブジェクトモデル6が表示される基本サイズ、オブジェクトモデル6を複数表示可能な追加個数、オブジェクトモデル6が表示される位置を示す表示座標、推定されるシーンID及びチャンクID、作業が行われるエリアID、使用者のスキルや役割を識別する資格IDなどが、各々に対応付けられて格納される。
次に図9を用いて保存部104に記憶されている情報であるオブジェクト割当テーブルについて説明する。図9は、本実施の形態による保存部104に記憶されている情報を示す図である。
オブジェクト割当テーブルに示すように、オブジェクトモデルIDに紐づけて、オブジェクトモデル6が有する表示領域8の個数に関する表示領域情報、表示される参照情報が紐づけられる表示領域ID、シーンID、チャンクIDなどが各々に対応付けられて格納される。
次に図10を用いて保存部104に記憶されている情報であるアノテーションテーブル、注目テーブルについて説明する。図10は、本実施の形態による保存部104に記憶されている情報を示す図である。
アノテーションテーブルに示すように、作業に関する映像を識別する映像ID、撮影したカメラを識別するカメラID、作業のシーンを識別するシーンID、映像が撮影された時刻を示す撮影時刻、映像が撮影された撮影時間、画質情報、撮影された映像の画質と視点座標、メタID、注目IDなどが各々に対応付けられて格納される。また、注目テーブルに示すように、表示するチャンクの優先度などを識別する注目ID、注目情報の表示を示す注目種別情報、シーンID、内容を占める注目情報、注目情報データ(コンテンツ)、上位の参照情報、有無を示す上位注目IDなどが各々に対応付けられて格納される。
次に図11を用いて保存部104に記憶されている情報であるカメラテーブル、ロールテーブルについて説明する。図11は、本実施の形態による保存部104に記憶されている情報を示す図である。
カメラテーブルに示すように、撮影されるカメラを識別するカメラID、カメラが設置されるエリアID、カメラのスペック、操作、役割などを示す機種情報、視線情報、切替情報、外部接続情報、操作可能者ID、ロールIDなどが、各々対応付けられて格納される。また、ロールテーブルに示すように、使用者を識別するロールID、社員ID、氏名、資格ID、部門ID、エリアID、関連ロールIDなどが各々に対応付けられて格納される。
(情報表示システム100の動作の一例)
次に、本実施形態における情報表示システム100の動作の一例について説明する。図12は、本実施形態における情報表示システム100の動作の一例を示すフローチャートである。
次に、本実施形態における情報表示システム100の動作の一例について説明する。図12は、本実施形態における情報表示システム100の動作の一例を示すフローチャートである。
<シーン推定手段S110>
図12に示すように、第1の画像及び位置情報を取得し、第1の学習済みモデルを使用して作業のシーンを推定する(シーン推定手段S110)。シーン推定部12は、例えば使用者が作業を行う作業場所であるシーンの画像である第1の画像と、使用者がいる位置の情報である位置情報と、作業に関係する作業関連情報と、を少なくとも含む評価対象情報を取得する。
図12に示すように、第1の画像及び位置情報を取得し、第1の学習済みモデルを使用して作業のシーンを推定する(シーン推定手段S110)。シーン推定部12は、例えば使用者が作業を行う作業場所であるシーンの画像である第1の画像と、使用者がいる位置の情報である位置情報と、作業に関係する作業関連情報と、を少なくとも含む評価対象情報を取得する。
シーン推定部12は、例えば使用者端末2から受信した第1のシーンIDリストに含まれるそれぞれのシーンIDのうち使用者端末2にキャッシュが無い1又は複数のシーンID(以下、これを第2のシーンIDリストと呼んでもよい)を検索キーとしてシーンテーブルを検索してもよい。
またシーン推定部12は、例えば検索結果として第2のシーンIDリストに含まれるそれぞれのシーンIDに対応するシーン名(以下、これをシーン名リストと呼んでもよい)をシーンテーブルから取得するようにしてもよい。
またシーン推定部12は、例えば取得したシーン名リストを使用者端末2にそのままに送信するようにしてもよい。利用段階において情報処理装置1は、第1の画像のシーンを、シーン名を推定することで、推定するシーン推定機能を実現する。
またシーン推定部12は、例えば評価対象情報と、シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用して、シーンを推定する。取得部11は、例えば記憶部19を介して、評価対象情報を保存部104に保存する。
<チャンク推定手段S120>
次に、第2の画像を取得し、複数の第2の学習済みモデルのうちの1つを使用し、チャンクを推定する(チャンク推定手段S120)。チャンク推定部13は、作業に関係する対象物の画像である第2の画像を取得する。
次に、第2の画像を取得し、複数の第2の学習済みモデルのうちの1つを使用し、チャンクを推定する(チャンク推定手段S120)。チャンク推定部13は、作業に関係する対象物の画像である第2の画像を取得する。
チャンク推定部13は、使用者が行う作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、取得部11は、例えば記憶部19を介して、第2の画像を保存部104に保存する。
また、チャンク推定部13は、使用者端末2から受信したシーン名に対応するシーンIDを検索キーとして、学習モデルテーブルを検索し学習モデルIDを取得する。チャンク推定部13は、学習モデルテーブルから取得した学習モデルIDによって、複数の第2の学習済みモデルのうちの1つを指定し、対象物5の第2の画像を指定した第2の学習済みモデルに入力する。
第2の学習済みモデルは、対象物5の第2の画像と強く結びついている1又は複数のチャンク用メタIDを1又は複数選択し、チャンク推定部13に対して選択した1又は複数の、1又は複数のチャンク用メタID(以下、これをチャンク用メタIDリストと呼んでもよい)を出力するようにしてもよい。
また、チャンク推定部13は、チャンク用メタIDリストに含まれるそれぞれの1又は複数のチャンク用メタIDを検索キーとして、チャンク・メタテーブルを検索する。チャンク推定部13は、検索結果として1又は複数のチャンクID(以下、これを第1のチャンクIDリストと呼んでもよい)をチャンク・メタテーブルから取得する。
また、チャンク推定部13は、取得した第1のチャンクIDリストを使用者端末2にそのままに送信するようにしてもよい。
また、チャンク推定部13は、使用者端末2から受信した第1のチャンクIDリストに含まれるそれぞれのチャンクIDのうち使用者端末2にキャッシュが無い1又は複数のチャンクID(以下、これを第2のチャンクIDリストと呼んでもよい)を検索キーとしてチャンクテーブルを検索する。
チャンク推定部13は、検索結果として第2のチャンクIDリストに含まれるそれぞれのチャンクIDに対応するチャンクサマリ(以下、これをチャンクサマリリストと呼んでもよい)をチャンクテーブルから取得する。チャンク推定部13は、取得したチャンクサマリリストを使用者端末2にそのままに送信するようにしてもよい。
利用段階において情報処理装置1は、被対応5のチャンクを、チャンクサマリを推定することで、推定するチャンク推定機能を実現する。
<オブジェクトモデル特定手段S130>
次に、推定されたシーン及びチャンクの何れかから、オブジェクトモデル6を特定する(オブジェクトモデル特定手段S130)。オブジェクトモデル特定部14は、シーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報を表示するオブジェクトモデル6を一意に示すオブジェクトモデルIDとの紐づけを行い、オブジェクトモデル6を特定する。
次に、推定されたシーン及びチャンクの何れかから、オブジェクトモデル6を特定する(オブジェクトモデル特定手段S130)。オブジェクトモデル特定部14は、シーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて、シーン又はチャンクを少なくとも含む参照情報を表示するオブジェクトモデル6を一意に示すオブジェクトモデルIDとの紐づけを行い、オブジェクトモデル6を特定する。
また、オブジェクトモデル特定部14は、使用者のスキル情報、作業を行う空間情報、対象物の特徴情報、又は作業の作業レベル情報などの少なくとも何れかに基づいて、オブジェクトモデル6を特定する。これにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることができる。
また、オブジェクトモデル特定部14は、少なくとも2面以上の表示領域8を備える形状であって、1以上のオブジェクトモデル6により構成されるオブジェクトモデル6を特定する。これにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることができる。
また、オブジェクトモデル特定部14は、作業の状態に基づいて、回転表示、拡大表示、縮小表示、突出表示、振動表示、状態表示、変色表示、又は濃淡表示の少なくとも何れかの形態で表示することができるオブジェクトモデル6を特定する。これにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることができる。
<割当手段S140>
次に、オブジェクトモデルの表示領域にチャンクを割り当てる(割当手段S140)。割当部15は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6が有する表示領域8に参照情報を割り当てる。
次に、オブジェクトモデルの表示領域にチャンクを割り当てる(割当手段S140)。割当部15は、オブジェクトモデル特定部14により特定されたオブジェクトモデル6が有する表示領域8に参照情報を割り当てる。
割当部15は、シーン推定部12により推定されたシーンの内容を示すシーン情報、シーン情報に紐づく使用者が行う前記作業に関する作業情報、作業情報に紐づく使用者が行う作業に関する作業工程を示す作業チェック情報、作業情報に紐づくチャンク情報、作業に関する作業内容の差分情報、作業の熟練者による手本作業の内容を示す手本作業情報、使用者の作業シーンの作業映像を示す作業映像情報、又は手本作業情報と作業映像情報との作業の差分に応じて示される指示情報の少なくとも何れかの参照情報の割り当てを行う。
また、割当部15は、第2の画像に紐づいて設定される注目情報の有無に基づいて、推定されるチャンクよりも優先する表示、又はチャンクに付随する表示として参照情報の割り当てを行う。これにより、使用者が必要な際に、使用者に優先される情報を、使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることができる。
<出力手段S150>
次に、オブジェクトモデルと、割当部15により割り当てられた参照情報を出力する(出力手段S150)。
次に、オブジェクトモデルと、割当部15により割り当てられた参照情報を出力する(出力手段S150)。
出力部16は、第1の画像、位置情報、及び第2の画像の少なくとも何れかに基づいて、オブジェクトモデル6を使用者の仮想表示空間内の対象物5の近傍に出力する。出力部16は、第1の画像、位置情報、及び第2の画像の少なくとも何れかに基づいて、オブジェクトモデル6を使用者の仮想表示空間内の対象物5の近傍に表示位置を固定して出力する。これにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることができる。
これにより、本実施形態における情報表示システム100の動作が終了する。
(情報表示システム100の第1変形例)
次に、図13を用いて本実施形態における情報表示システム100の第1変形例について説明する。上述した実施形態と、第1変形例との違いは、オブジェクトモデル7が複数のオブジェクトモデルにより構成され、割当部15によりオブジェクトモデル7の各々の表示領域に別々の表示内容(表示内容8a、表示内容8b)が割り当てられ、出力部16により出力され、使用者端末2で表示される点である。なお、上述した実施形態と同様の内容については、説明を省略する。
次に、図13を用いて本実施形態における情報表示システム100の第1変形例について説明する。上述した実施形態と、第1変形例との違いは、オブジェクトモデル7が複数のオブジェクトモデルにより構成され、割当部15によりオブジェクトモデル7の各々の表示領域に別々の表示内容(表示内容8a、表示内容8b)が割り当てられ、出力部16により出力され、使用者端末2で表示される点である。なお、上述した実施形態と同様の内容については、説明を省略する。
複数のオブジェクトモデルは、例えば立方体の場合は、上下に2段以上が重なるように表示されてもよい。オブジェクトモデル特定部14は、例えばシーン推定部12により推定されたシーン及びチャンク推定部13により推定されたチャンクの少なくとも何れかに基づいて参照情報を表示するオブジェクトモデルを一意に示すオブジェクトモデルIDとの紐づけを行い、オブジェクトモデルを特定するようにしてもよい。
ここで、図14を用いて、本実施形態における使用者端末2の表示の一例について説明する。図14は、使用者端末2において、オブジェクトモデル特定部14により特定されたオブジェクトモデル7の複数の表示領域に、割当部15により割り当てられ、表示された各種の表示内容を示す。
図14(a)は、例えばシーン推定部12が第1の画像及び位置情報を取得し、第1の学習済みモデルを使用して作業のシーンを推定し、推定された複数のシーンの候補がオブジェクトモデルの1つの表示領域に表示される例である。図14(b)は、例えばチャンクIDに紐づく参照情報として、コンテンツ・差分情報が表示領域に表示される例である。図14(c)は、例えば使用者端末2がスマートフォン等のデバイスで、自分視点の画像情報として、リアカメラに切り替えて第2の画像として対象物5を撮影し、撮影された対象物5が表示領域に表示される例である。図14(d)は、例えば熟練者である使用者(トレーニー)に対して、作業する対象物5が撮影された第2の画像に基づいて表示される作業チェック表が表示領域に表示される例である。図14(e)は、例えば熟練者(トレーナー)の使用者端末2で録画された対象物5の映像として表示領域に表示される例である。図14(f)は、例えば作業を行う使用者の行動を俯瞰して確認する映像と、関連する情報が合わせて表示領域に表示される例である。図14(g)は、例えば熟練者(トレーナー)が記録する学習用情報を取得する場合の熟練者・AI学習データの生成時用の作業情報が表示領域に表示される例である。図14(h)は、例えばチャンクIDに紐づく関連ナラティブ情報として、関連動画情報、原点情報が表示領域に表示される例である。
特定されたオブジェクトモデル6の表示領域には、例えば図14(a)~(h)に表示される各々の参照情報が表示されるが、例えばシーン推定部12によるシーンの選択、チャンク推定部13によるチャンクの選択の場面では、図14(a)が使用者の前面に表示されるようにしてもよい。また、使用者の作業内容、作業状況などに基づいて、オブジェクトモデル6の表示領域が回転し、より重要な情報、注目情報などを優先表示するようにしてもよい。
(情報表示システム100の第2変形例)
次に、図15を用いて本実施形態における情報表示システム100の第2変形例について説明する。上述した実施形態と、第1変形例と、第2変形例の違いは、通常に特定されるオブジェクトモデル6と表示内容8aと付随して、例えばオブジェクトモデル6の上部に、異なるオブジェクトモデルIDで特定されたオブジェクトモデル9(board_01)を特定して表示する。そしてオブジェクトモデル9の表示領域には、例えば表示内容8c(アラート情報など)が割り当てられ、出力部16により出力され、使用者端末2で表示される点である。なお、上述した実施形態と同様の内容については、説明を省略する。
次に、図15を用いて本実施形態における情報表示システム100の第2変形例について説明する。上述した実施形態と、第1変形例と、第2変形例の違いは、通常に特定されるオブジェクトモデル6と表示内容8aと付随して、例えばオブジェクトモデル6の上部に、異なるオブジェクトモデルIDで特定されたオブジェクトモデル9(board_01)を特定して表示する。そしてオブジェクトモデル9の表示領域には、例えば表示内容8c(アラート情報など)が割り当てられ、出力部16により出力され、使用者端末2で表示される点である。なお、上述した実施形態と同様の内容については、説明を省略する。
オブジェクトモデル9は、例えば熟練者である使用者(トレーニー)を監視、指導する監視者によって表示の通知操作がされるようにしてもよく、使用者はこのオブジェクトモデル9で表示される作業(問題)を解決されるまでの間は表示を継続し、作業(問題)が解決されれば消えるようにしてもよい。
これにより、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報とは別の、例えば緊急性の高い情報などを提示することが可能となり、情報提供の実効性、及び情報の有用性が一層向上させることができる。
次に、図16を用いて、本実施形態における使用者端末2の表示の一例について説明する。図16は、使用者端末2において、オブジェクトモデル特定部14により特定されたオブジェクトモデル7の複数の表示領域に、割当部15により割り当てられ、表示された各種の表示内容を示す。
図16(a)に示す表示例は、例えば使用者端末2がスマートフォンであり、平面的な表示として表示するようにしてもよい。図16(a)に示す表示例は、例えば使用者のスマートフォンの表示画面30の表示領域30aに、オブジェクトモデル8aとオブジェクトモデル8bを特定し、特定されたオブジェクトモデル8aとオブジェクトモデル8bの各々に表示領域にチャンクを割り当て、出力し、スマートフォンの表示画面30に表示される。この場合、例えばオブジェクトモデルのイメージを異なるデバイス間でも共通とすることで、使用者が必要な際に、使用者に絞り込まれた情報及び使用者が気付いていない有益な情報を表示す情報を、共通の操作作法、UIとして使用者に提示することができ、情報提供の実効性、及び情報の有用性を向上させることができる。
次に、図16(b)に示す表示例は、例えば使用者端末2がパソコン等であり、使用者が監視者(インスペクター)の場合における表示となる。この場合、例えば表示画面31には、対象物5を作業する作業者を俯瞰した画像を表示する表示領域31aと、熟練者の熟練担当者の視点画像を表示する表示領域31bと、作業者に対して情報を送信するオブジェクトモデルを選択させる表示領域31cと、使用者(例えばトレーナー、トレーニーなど)にアラートを送信するための表示領域31dとが表示される。これにより、使用者が必要な際に、使用者に絞り込まれた情報とは別の役割で、関連する情報を使用者になどを提示することが可能となり、情報提供の実効性、及び情報の有用性が一層向上させることができる。
また、本実形態によれば、割当部15は、例えば模式化された情報の表示を割り当てるようにしてもよい。模式化された情報は、例えば人の表情を簡略化した『笑顔』、『不安』、『緊迫』などの表情を示す図やイラスト、使用者の作業状況に対する『注意』、『警告』などの単語やメッセージ、さらには赤色、青色、黄色などの発光状態が表示灯などとして、各々が表示されてもよい。
また、本実施形態によれば、使用者が対象物に対して行う作業の支援を行う情報表示方法は、シーン推定手段S110を行うシーン推定ステップ、チャンク推定手段S120を行うチャンク推定ステップ、オブジェクトモデル特定手段S130を行うオブジェクトモデル特定ステップ、割当手段S140を行う割当ステップ、出力手段S150を行う出力ステップにより提供することができる。
本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 :情報処理装置
2 :使用者端末
2a :表示エリア
3 :サーバ
4 :通信網
5 :対象物
6 :オブジェクトモデル
7 :オブジェクトモデル
8 :表示領域
8a :表示内容
8b :表示内容
8c :表示内容
9 :オブジェクトモデル
10 :筐体
11 :取得部
12 :シーン推定部
13 :チャンク推定部
14 :オブジェクトモデル特定部
15 :割当部
16 :出力部
17 :手本作業生成部
17a :手本作業登録部
17b :手本手順登録部
17c :手本作業決定部
18 :更新部
19 :記憶部
20 :学習部
21 :監視部
30 :表示画面
30a :表示領域
31 :表示画面
31a :表示領域
31b :表示領域
31c :表示領域
31d :表示領域
50 :作業エリア(製造エリア)
100 :情報表示システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部
109 :表示部
110 :内部バス
S110 :シーン推定手段
S120 :チャンク推定手段
S130 :オブジェクトモデル特定手段
S140 :割当手段
S150 :出力手段
2 :使用者端末
2a :表示エリア
3 :サーバ
4 :通信網
5 :対象物
6 :オブジェクトモデル
7 :オブジェクトモデル
8 :表示領域
8a :表示内容
8b :表示内容
8c :表示内容
9 :オブジェクトモデル
10 :筐体
11 :取得部
12 :シーン推定部
13 :チャンク推定部
14 :オブジェクトモデル特定部
15 :割当部
16 :出力部
17 :手本作業生成部
17a :手本作業登録部
17b :手本手順登録部
17c :手本作業決定部
18 :更新部
19 :記憶部
20 :学習部
21 :監視部
30 :表示画面
30a :表示領域
31 :表示画面
31a :表示領域
31b :表示領域
31c :表示領域
31d :表示領域
50 :作業エリア(製造エリア)
100 :情報表示システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部
109 :表示部
110 :内部バス
S110 :シーン推定手段
S120 :チャンク推定手段
S130 :オブジェクトモデル特定手段
S140 :割当手段
S150 :出力手段
Claims (7)
- 使用者が対象物に対して行う作業の支援を行う情報表示装置であって、
前記使用者を識別する資格ID、部門ID、エリアIDを少なくとも含むロールテーブルを記憶する記憶部と、
前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像と、前記使用者がいる位置の情報である位置情報と、前記ロールテーブルを参照して前記使用者の作業に関する前記資格ID、前記エリアID、及び前記部門IDを含む作業関連情報と、を含む評価対象情報を取得する取得部と、
前記取得部により取得された前記評価対象情報に基づいて、前記評価対象情報と、前記シーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用し、前記連関性の重み変数に基づいて前記使用者が前記作業を行う前記シーンを推定するシーン推定部と、
前記取得部は、前記シーン推定部により前記シーンが推定された後に、前記作業に関する対象物の画像である第2の画像を取得し、前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、前記連関性の重み変数に基づいてチャンクを推定するチャンク推定部と、
前記シーン推定部により推定された前記シーン及び前記チャンク推定部により推定された前記チャンクと、前記資格IDと、に基づいて参照情報を取得し、取得した前記参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、前記オブジェクトモデルを特定するオブジェクトモデル特定部と、
前記オブジェクトモデル特定部により特定された前記オブジェクトモデルが有する複数の表示領域に、前記参照情報を割り当てる割当部と、
前記オブジェクトモデル特定部により特定された前記オブジェクトモデルと、前記割当部により割り当てられた前記参照情報とを出力する出力部と、
を備えること、
を特徴とする情報表示装置。 - 使用者が対象物に対して行う作業の支援を行う情報表示システムであって、
前記使用者を識別する資格ID、部門ID、エリアIDを少なくとも含むロールテーブルを記憶する記憶手段と、
前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像と、前記使用者がいる位置の情報である位置情報と、前記ロールテーブルを参照して前記使用者の作業に関する前記資格ID、前記エリアID、及び前記部門IDを含む作業関連情報と、を含む評価対象情報を取得する取得手段と、
前記取得手段により取得された前記評価対象情報に基づいて、前記評価対象情報と、前記シーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用し、前記連関性の重み変数に基づいて前記使用者が前記作業を行う前記シーンを推定するシーン推定手段と、
前記取得手段は、前記シーン推定部により前記シーンが推定された後に、前記作業に関する対象物の画像である第2の画像を取得し、前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、前記連関性の重み変数に基づいてチャンクを推定するチャンク推定手段と、
前記シーン推定手段により推定された前記シーン及び前記チャンク推定手段により推定された前記チャンクと、前記資格IDと、に基づいて参照情報を取得し、取得した前記参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、前記オブジェクトモデルを特定するオブジェクトモデル特定手段と、
前記オブジェクトモデル特定手段により特定された前記オブジェクトモデルが有する複数の表示領域に、前記参照情報を割り当てる割当手段と、
前記オブジェクトモデル特定手段により特定された前記オブジェクトモデルと、前記割当部により割り当てられた前記参照情報とを出力する出力手段と、
を備えること、
を特徴とする情報表示システム。 - 使用者が対象物に対して行う作業の支援を情報表示装置に行わせる情報表示プログラムであって、
前記使用者を識別する資格ID、部門ID、エリアIDを少なくとも含むロールテーブルを記憶する記憶ステップと、
前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像と、前記使用者がいる位置の情報である位置情報と、前記ロールテーブルを参照して前記使用者の作業に関する前記資格ID、前記エリアID、及び前記部門IDを含む作業関連情報と、を含む評価対象情報を取得する取得ステップと、
前記取得ステップにより取得された前記評価対象情報に基づいて、前記評価対象情報と、前記シーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用し、前記連関性の重み変数に基づいて前記使用者が前記作業を行う前記シーンを推定するシーン推定ステップと、
前記取得ステップは、前記シーン推定ステップにより前記シーンが推定された後に、前記作業に関する対象物の画像である第2の画像を取得し、前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用し、前記連関性の重み変数に基づいてチャンクを推定するチャンク推定ステップと、
前記シーン推定ステップにより推定された前記シーン及び前記チャンク推定ステップにより推定された前記チャンクと、前記資格IDと、に基づいて参照情報を取得し、取得した前記参照情報を表示するオブジェクトモデルを一意に示す前記オブジェクトモデルIDとの紐づけを行い、前記オブジェクトモデルを特定するオブジェクトモデル特定ステップと、
前記オブジェクトモデル特定ステップにより特定された前記オブジェクトモデルが有する複数の表示領域に、前記参照情報を割り当てる割当ステップと、
前記オブジェクトモデル特定ステップにより特定された前記オブジェクトモデルと、前記割当部により割り当てられた前記参照情報とを出力する出力ステップと、
を情報表示装置に実行させること、
を特徴とする情報表示プログラム。 - 機械学習によりデータベースを生成する学習方法であって、
熟練者が用いる使用者端末を介して取得された作業のシーン、前記熟練者の位置情報及び前記熟練者を識別する部門ID及びエリアIDを少なくとも含む情報を含む評価対象情報と、前記使用者端末を用いて取得した前記熟練者の作業に関するシーンIDを含む参照情報と、を一対の学習データとして、前記使用者端末を操作する前記シーンにおける作業の種類毎に複数取得する取得ステップと、
複数の前記学習データを用いた機械学習により、複数の前記評価対象情報と、複数の前記シーン情報との間における連関性が記憶された前記データベースを生成する学習ステップと、
を備えること
を特徴とする学習方法。 - 機械学習によりデータベースを生成する学習方法であって、
熟練者が用いる使用者端末を介して取得された作業対象の対象物、前記対象物の機器に対する操作情報及び前記熟練者を識別する資格IDを含む情報を含む評価対象情報と、前記使用者端末を用いて取得した前記熟練者が参照する前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDを含む参照情報と、を一対の学習データとして、前記使用者端末を操作する前記対象物の作業の種類毎に複数取得する取得ステップと、
複数の前記学習データを用いた機械学習により、複数の前記評価対象情報と、複数の前記チャンク情報との間における連関性が記憶された前記データベースを生成する学習ステップと、
を備えること
を特徴とする学習方法。 - 保存部及び制御部を備えるコンピュータに用いられ、前記保存部に記憶される使用者の作業のシーンの内容を示すシーンIDを出力部に表示するためのデータ構造であって、
使用者端末を用いて取得された作業場所のシーン、使用者の位置情報及び使用者の作業に関する情報を含む評価対象情報と、前記使用者端末を用いて取得した前記作業に関するシーンIDと、を一対の学習データとして、前記使用者端末を操作する前記シーンIDにおける作業の種類毎に複数取得し、
複数の前記学習データは、前記コンピュータの備える制御部が実行するニューラルネットワークをモデルとした機械学習により、複数の前記評価対象情報と、複数の前記シーンIDとの間における連関性を含む学習済みモデルを生成するために用いられること
を特徴とするデータ構造。 - 保存部及び制御部を備えるコンピュータに用いられ、前記保存部に記憶される使用者のシ-ン作業に紐づき対象物の作業に関するチャンクIDを出力部に表示するためのデータ構造であって、
使用者端末を介して取得された作業対象の対象物、前記対象物の機器に対する評価対象情報と、前記使用者端末を用いて取得した前記対象物に対する前記作業に関する作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、を一対の学習データとして、前記使用者端末を操作する前記対象物の作業の種類毎に複数取得し、
複数の前記学習データは、前記コンピュータの備える制御部が実行するニューラルネットワークをモデルとした機械学習により、複数の前記評価対象情報と、複数の前記チャンクIDとの間における連関性を含む学習済みモデルを生成するために用いられること
を特徴とするデータ構造。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022062889A JP2022136068A (ja) | 2021-03-05 | 2022-04-05 | 情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035066 | 2021-03-05 | ||
JP2022062889A JP2022136068A (ja) | 2021-03-05 | 2022-04-05 | 情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021035066 Division | 2021-03-05 | 2021-03-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022136068A true JP2022136068A (ja) | 2022-09-15 |
JP2022136068A5 JP2022136068A5 (ja) | 2024-03-13 |
Family
ID=87884613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022062889A Pending JP2022136068A (ja) | 2021-03-05 | 2022-04-05 | 情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022136068A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024062541A1 (ja) * | 2022-09-20 | 2024-03-28 | ファナック株式会社 | 画像生成システム及びコンピュータ読み取り可能な記録媒体 |
WO2024142193A1 (ja) * | 2022-12-27 | 2024-07-04 | 三菱電機株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
-
2022
- 2022-04-05 JP JP2022062889A patent/JP2022136068A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024062541A1 (ja) * | 2022-09-20 | 2024-03-28 | ファナック株式会社 | 画像生成システム及びコンピュータ読み取り可能な記録媒体 |
WO2024142193A1 (ja) * | 2022-12-27 | 2024-07-04 | 三菱電機株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022136068A (ja) | 情報表示装置、情報表示システム、情報表示プログラム、学習方法及びデータ構造 | |
Casini | Extended reality for smart building operation and maintenance: A review | |
CN104216762B (zh) | 跟踪用户以支持在复杂系统组件上执行的任务 | |
JP5617472B2 (ja) | 建築情報統合管理システム、建築情報統合管理プログラムおよび、コンピュータ可読記憶媒体 | |
US20210236227A1 (en) | Instrument tracking machine | |
JP2018106662A (ja) | 情報処理装置、情報処理方法、プログラム | |
US20170092220A1 (en) | Dynamic sensor array for augmented reality system | |
JP6542445B1 (ja) | 情報提供システム及び情報提供方法 | |
JP5895037B2 (ja) | 建築情報統合管理システムおよび建築情報統合管理プログラム | |
JP6495538B2 (ja) | イメージコンテンツ検索 | |
US20190066380A1 (en) | Systems and methods of physics layer prioritization in virtual environments | |
US20200118336A1 (en) | Information processing device, information processing method, and program | |
JP2023107821A5 (ja) | ゲーム処理プログラム、ゲーム処理方法及びゲーム処理システム | |
JP2020166783A (ja) | 情報提供システム及び情報提供方法 | |
CN114079801A (zh) | 按需将元数据叠加到视频流上以进行智能视频分析 | |
JP2020166782A (ja) | 情報提供システム及び情報提供方法 | |
Bianconi et al. | Immersive wayfinding: virtual reconstruction and eye-tracking for orientation studies inside complex architecture | |
JP2020024665A (ja) | 情報処理方法、及び情報処理システム | |
US9811893B2 (en) | Composable situational awareness visualization system | |
WO2023095322A1 (ja) | Bimデータ提供システム、bimデータ提供方法及びプログラム | |
US20100254607A1 (en) | System and method for image mapping and integration | |
US20210366057A1 (en) | Information sharing support device and information sharing support system | |
JP2022049791A (ja) | 被ばく体験シミュレーションシステム | |
WO2022124419A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
US20240290028A1 (en) | Non-transitory computer readable medium, information processing apparatus, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240305 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240305 |