JPWO2016140129A1 - 動作評価装置、動作評価方法、及びプログラム - Google Patents
動作評価装置、動作評価方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2016140129A1 JPWO2016140129A1 JP2017503437A JP2017503437A JPWO2016140129A1 JP WO2016140129 A1 JPWO2016140129 A1 JP WO2016140129A1 JP 2017503437 A JP2017503437 A JP 2017503437A JP 2017503437 A JP2017503437 A JP 2017503437A JP WO2016140129 A1 JPWO2016140129 A1 JP WO2016140129A1
- Authority
- JP
- Japan
- Prior art keywords
- motion
- human
- visual expression
- virtual space
- specific
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 82
- 230000033001 locomotion Effects 0.000 claims abstract description 129
- 230000014509 gene expression Effects 0.000 claims abstract description 57
- 230000000007 visual effect Effects 0.000 claims abstract description 54
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 230000009471 action Effects 0.000 claims description 44
- 238000010276 construction Methods 0.000 claims description 14
- 238000004519 manufacturing process Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P13/00—Indicating or recording presence, absence, or direction, of movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/24—Use of tools
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Entrepreneurship & Innovation (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Medicinal Chemistry (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、動作評価部と、
前記動作評価部によって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、視覚表現付加部と、
を備えている、ことを特徴とする。
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を有する、ことを特徴とする。
コンピュータに、
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
以下、本発明の実施の形態における、動作評価装置、動作評価方法、及びプログラムについて、図1〜図5を参照しながら説明する。
最初に、図1を用いて、本実施の形態における動作評価装置の構成について説明する。図1は、本発明の実施の形態における動作評価装置の概略構成を示すブロック図である。図1に示すように、動作評価装置10は、動作検出部11と、動作評価部12と、視覚表現付加部13とを備えている。
次に、本実施の形態における動作評価装置の動作について図4を用いて説明する。図4は、本発明の実施の形態における動作評価装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態では、動作評価装置を動作させることによって、動作評価方法が実施される。よって、本実施の形態における動作評価方法の説明は、以下の動作評価装置10の動作説明に代える。
以上のように、本実施の形態では、管理者50は、作業者40の特定動作を漏れなく確認することができるので、特定動作に起因する問題点の取りこぼしが抑制される。つまり、本実施の形態では、管理者40が、生産ラインの設計についての専門家でない場合であっても、専門家と同様に、問題点に気付くことができるようになる。本実施の形態によれば、作業者40が効率良く作業でき、且つ、作業者の身体的負担を軽減できる、生産ラインを構築できる。この結果、不良品の発生も抑制することができる。
図2の例では、管理者50も、作業者40と同様に、VRゴーグル20を装着して、仮想空間内を観察しているが、本実施の形態は、図2の例に限定されるものではない。例えば、動作評価装置10に、一般的な表示装置が接続されているのであれば、管理者50は、この表示装置の画面を介して、仮想空間内を観察していても良い。この態様であっても、管理者50は、作業者オブジェクト41に付加される視覚表現を確認することができる。
また、本実施の形態は、動作評価装置10が、生産ラインでの作業者40の動作の評価に用いられる例について説明しているが、動作評価装置10の用途はこれに限定されるものではない。例えば、動作評価装置10は、手術室での医師及び看護師の動作の評価に用いることもできる。この場合、看護師が、無理なく、医師に適切な手術道具を渡せるかどうかの評価を行なうことが可能となる。
本発明の実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1〜A6を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における動作評価装置10と動作評価方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、動作検出部11、動作評価部12、視覚表現付加部13、及び仮想空間構築部14として機能し、処理を行なう。
対象となるヒトの動作を検出する、動作検出部と、
検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、動作評価部と、
前記動作評価部によって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、視覚表現付加部と、
を備えている、ことを特徴とする動作評価装置。
仮想空間を構築する、仮想空間構築部を更に備え、
前記仮想空間構築部は、前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記動作検出部によって検出された動作に合せて、前記オブジェクトを動作させ、
前記視覚表現付加部は、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
付記1に記載の動作評価装置。
前記視覚表現付加部が、前記視覚表現として、ドットの集合を付加する、
付記1に記載の動作評価装置。
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を有する、ことを特徴とする動作評価方法。
(d)仮想空間を構築する、ステップと、
(e)前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記(a)のステップによって検出された動作に合せて、前記オブジェクトを動作させるステップと、
を更に有し、
前記(c)のステップにおいて、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
付記4に記載の動作評価方法。
前記(c)のステップにおいて、前記視覚表現として、ドットの集合を付加する、
付記4に記載の動作評価方法。
コンピュータに、
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
前記プログラムが、前記コンピュータに、
(d)仮想空間を構築する、ステップと、
(e)前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記(a)のステップによって検出された動作に合せて、前記オブジェクトを動作させるステップと、
を実行させる命令を更に含み、
前記(c)のステップにおいて、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
付記7に記載のコンピュータ読み取り可能な記録媒体。
前記(c)のステップにおいて、前記視覚表現として、ドットの集合を付加する、
付記7に記載のコンピュータ読み取り可能な記録媒体。
11 動作検出部
12 動作評価部
13 視覚表現付加部
14 仮想空間構築部
20 VRゴーグル
21 赤外線センサ
30 位置検出用のカメラ
40 作業者
41 作業者オブジェクト
42 ドットの集合
43 設備オブジェクト
50 管理者
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
コンピュータに、
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を実行させる、ことを特徴とする。
コンピュータに、
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を実行させる、プログラム。
前記コンピュータに、更に、
(d)仮想空間を構築する、ステップと、
(e)前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記(a)のステップによって検出された動作に合せて、前記オブジェクトを動作させるステップと、
を実行させ、
前記(c)のステップにおいて、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
付記7に記載のプログラム。
前記(c)のステップにおいて、前記視覚表現として、ドットの集合を付加する、
付記7に記載のプログラム。
Claims (9)
- 対象となるヒトの動作を検出する、動作検出部と、
検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、動作評価部と、
前記動作評価部によって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、視覚表現付加部と、
を備えている、ことを特徴とする動作評価装置。 - 仮想空間を構築する、仮想空間構築部を更に備え、
前記仮想空間構築部は、前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記動作検出部によって検出された動作に合せて、前記オブジェクトを動作させ、
前記視覚表現付加部は、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
請求項1に記載の動作評価装置。 - 前記視覚表現付加部が、前記視覚表現として、ドットの集合を付加する、
請求項1または2に記載の動作評価装置。 - (a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を有する、ことを特徴とする動作評価方法。 - (d)仮想空間を構築する、ステップと、
(e)前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記(a)のステップによって検出された動作に合せて、前記オブジェクトを動作させるステップと、
を更に有し、
前記(c)のステップにおいて、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
請求項4に記載の動作評価方法。 - 前記(c)のステップにおいて、前記視覚表現として、ドットの集合を付加する、
請求項4または5に記載の動作評価方法。 - コンピュータに、
(a)対象となるヒトの動作を検出する、ステップと、
(b)前記(a)のステップで検出された動作が、予め設定された特定動作に合致しているかどうかを判定する、ステップと、
(c)前記(b)のステップによって、前記特定動作に合致していると判定された場合に、画面上に表示された前記ヒト又は前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、視覚表現を付加する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。 - 前記プログラムが、前記コンピュータに、
(d)仮想空間を構築する、ステップと、
(e)前記ヒトを表す前記オブジェクトを前記仮想空間内に作成し、前記(a)のステップによって検出された動作に合せて、前記オブジェクトを動作させるステップと、
を実行させる命令を更に含み、
前記(c)のステップにおいて、画面上に表示された前記ヒトを表すオブジェクトにおける、前記特定動作に予め関連付けられている部分に、前記視覚表現を付加する、
請求項7に記載のコンピュータ読み取り可能な記録媒体。 - 前記(c)のステップにおいて、前記視覚表現として、ドットの集合を付加する、
請求項7または8に記載のコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043583 | 2015-03-05 | ||
JP2015043583 | 2015-03-05 | ||
PCT/JP2016/055499 WO2016140129A1 (ja) | 2015-03-05 | 2016-02-24 | 動作評価装置、動作評価方法、及びコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016140129A1 true JPWO2016140129A1 (ja) | 2018-01-25 |
JP6462847B2 JP6462847B2 (ja) | 2019-01-30 |
Family
ID=56848894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503437A Active JP6462847B2 (ja) | 2015-03-05 | 2016-02-24 | 動作評価装置、動作評価方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10593223B2 (ja) |
JP (1) | JP6462847B2 (ja) |
CN (1) | CN107408354B (ja) |
WO (1) | WO2016140129A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10839717B2 (en) * | 2016-01-11 | 2020-11-17 | Illinois Tool Works Inc. | Weld training systems to synchronize weld data for presentation |
JP2017126935A (ja) * | 2016-01-15 | 2017-07-20 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP2019197165A (ja) * | 2018-05-10 | 2019-11-14 | 日本電気株式会社 | 作業訓練装置、作業訓練方法、およびプログラム |
CN111583733A (zh) * | 2020-05-12 | 2020-08-25 | 广东小天才科技有限公司 | 一种智能家教机及其交互方法 |
US20240330620A1 (en) * | 2023-03-30 | 2024-10-03 | Zebra Technologies Corporation | Dynamic image annotation using infrared-identifiable wearable articles |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003330971A (ja) * | 2002-05-15 | 2003-11-21 | Toshiba Corp | 標準作業書制作方法及び記憶媒体 |
JP2005134536A (ja) * | 2003-10-29 | 2005-05-26 | Omron Corp | 作業訓練支援システム |
JP2006171184A (ja) * | 2004-12-14 | 2006-06-29 | Toshiba Corp | 技能評価システムおよび技能評価方法 |
JP2006302122A (ja) * | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | 運動支援システムとその利用者端末装置及び運動支援プログラム |
JP2013088730A (ja) * | 2011-10-21 | 2013-05-13 | Toyota Motor East Japan Inc | 技能習得支援システム及び技能習得支援方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6059576A (en) * | 1997-11-21 | 2000-05-09 | Brann; Theodore L. | Training and safety device, system and method to aid in proper movement during physical activity |
US8930472B2 (en) * | 2007-10-24 | 2015-01-06 | Social Communications Company | Promoting communicant interactions in a network communications environment |
US20130174059A1 (en) * | 2011-07-22 | 2013-07-04 | Social Communications Company | Communicating between a virtual area and a physical space |
US9146669B2 (en) * | 2009-12-29 | 2015-09-29 | Bizmodeline Co., Ltd. | Password processing method and apparatus |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US8893010B1 (en) * | 2011-07-20 | 2014-11-18 | Google Inc. | Experience sharing in location-based social networking |
AU2011205223C1 (en) * | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
US10824310B2 (en) * | 2012-12-20 | 2020-11-03 | Sri International | Augmented reality virtual personal assistant for external representation |
US9652992B2 (en) * | 2012-10-09 | 2017-05-16 | Kc Holdings I | Personalized avatar responsive to user physical state and context |
US9501942B2 (en) * | 2012-10-09 | 2016-11-22 | Kc Holdings I | Personalized avatar responsive to user physical state and context |
US9199122B2 (en) * | 2012-10-09 | 2015-12-01 | Kc Holdings I | Personalized avatar responsive to user physical state and context |
US9198622B2 (en) * | 2012-10-09 | 2015-12-01 | Kc Holdings I | Virtual avatar using biometric feedback |
US9685001B2 (en) * | 2013-03-15 | 2017-06-20 | Blackberry Limited | System and method for indicating a presence of supplemental information in augmented reality |
WO2015108700A1 (en) * | 2014-01-14 | 2015-07-23 | Zsolutionz, LLC | Sensor-based evaluation and feedback of exercise performance |
-
2016
- 2016-02-24 CN CN201680013144.8A patent/CN107408354B/zh active Active
- 2016-02-24 WO PCT/JP2016/055499 patent/WO2016140129A1/ja active Application Filing
- 2016-02-24 US US15/553,838 patent/US10593223B2/en active Active
- 2016-02-24 JP JP2017503437A patent/JP6462847B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003330971A (ja) * | 2002-05-15 | 2003-11-21 | Toshiba Corp | 標準作業書制作方法及び記憶媒体 |
JP2005134536A (ja) * | 2003-10-29 | 2005-05-26 | Omron Corp | 作業訓練支援システム |
JP2006171184A (ja) * | 2004-12-14 | 2006-06-29 | Toshiba Corp | 技能評価システムおよび技能評価方法 |
JP2006302122A (ja) * | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | 運動支援システムとその利用者端末装置及び運動支援プログラム |
JP2013088730A (ja) * | 2011-10-21 | 2013-05-13 | Toyota Motor East Japan Inc | 技能習得支援システム及び技能習得支援方法 |
Non-Patent Citations (2)
Title |
---|
宮狭和大、外3名: ""複合現実空間における作業記録の可視化手法の提案と評価"", 「情報処理学会論文誌 VOL.47 NUMBER 1」, vol. 第47巻,第1号, JPN6016016638, 15 January 2006 (2006-01-15), JP, pages 181 - 192, ISSN: 0003832718 * |
高橋典宏、外4名: ""距離画像センサを用いた俯瞰画像による人物の姿勢推定"", 「FIT2007 第6回情報科学技術フォーラム 一般講演論文集 第3分冊」, JPN6016016636, 22 August 2007 (2007-08-22), JP, pages 79 - 80, ISSN: 0003832717 * |
Also Published As
Publication number | Publication date |
---|---|
US20180053438A1 (en) | 2018-02-22 |
CN107408354A (zh) | 2017-11-28 |
CN107408354B (zh) | 2019-12-20 |
JP6462847B2 (ja) | 2019-01-30 |
US10593223B2 (en) | 2020-03-17 |
WO2016140129A1 (ja) | 2016-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6462847B2 (ja) | 動作評価装置、動作評価方法、及びプログラム | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
WO2020172010A1 (en) | Mixed-reality guide data collection and presentation | |
US20160184469A1 (en) | System for detecting sterile field events and related methods | |
EP3788542A1 (en) | Personal protective equipment system with augmented reality for safety event detection and visualization | |
JP2017059062A5 (ja) | ||
CN109117684A (zh) | 用于在双目增强现实设备上选择性扫描的系统和方法 | |
JP7471428B2 (ja) | 製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム、方法及びコンピュータ読み取り可能媒体 | |
WO2021202609A1 (en) | Method and system for facilitating remote presentation or interaction | |
JP2021002290A (ja) | 画像処理装置およびその制御方法 | |
CN111033573A (zh) | 信息处理装置、系统、图像处理方法、计算机程序及存储介质 | |
CN113190109A (zh) | 头戴式显示设备的输入控制方法、装置及头戴式显示设备 | |
JP6270488B2 (ja) | オペレータ監視制御装置およびオペレータ監視制御方法 | |
JP7125872B2 (ja) | 作業支援装置、および、作業支援方法 | |
JP7167518B2 (ja) | 制御装置、ヘッドマウントディスプレイおよびロボットシステム | |
JP2017016376A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP7011569B2 (ja) | 熟練度判定システム | |
WO2022087015A1 (en) | Computer vision and machine learning to track surgical tools through a use cycle | |
JP7158909B2 (ja) | 表示システム、ウェアラブル装置及び監視制御装置 | |
JP2016058043A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP7307698B2 (ja) | 作業管理システムおよび作業管理方法 | |
JP7418711B1 (ja) | 注意抽出システム、及び注意抽出方法 | |
KR20230099787A (ko) | 훈련자의 훈련 동작을 인식하여 전문가의 시범 동작을 보여주는 가상 훈련 시스템 | |
JP2023156869A (ja) | 作業支援システム及び方法 | |
TWI686743B (zh) | 控制耳機裝置之方法、耳機裝置、電腦可讀媒體及紅外線感測器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6462847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |