JP6762470B2 - ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム - Google Patents

ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム Download PDF

Info

Publication number
JP6762470B2
JP6762470B2 JP2019508018A JP2019508018A JP6762470B2 JP 6762470 B2 JP6762470 B2 JP 6762470B2 JP 2019508018 A JP2019508018 A JP 2019508018A JP 2019508018 A JP2019508018 A JP 2019508018A JP 6762470 B2 JP6762470 B2 JP 6762470B2
Authority
JP
Japan
Prior art keywords
inspection
wearable terminal
target
inspection target
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019508018A
Other languages
English (en)
Other versions
JPWO2018179230A1 (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Publication of JPWO2018179230A1 publication Critical patent/JPWO2018179230A1/ja
Application granted granted Critical
Publication of JP6762470B2 publication Critical patent/JP6762470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Description

本発明は、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して、収集された検査項目を拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムに関する。
近年、スマートグラスやヘッドマウントディスプレイなどのウェアラブル端末が普及し、これらのウェアラブル端末を検査で活用する動きがある。例えば、薬剤監査のために監査と照合とを同時に実行可能な照合検査装置、または、照合先の物品と照合元の注文票や処方箋との直接の照合を実現できる照合検査装置が提供されている(特許文献1)。
特開2011−134079号公報
しかしながら、特許文献1の装置は、ウェアラブル端末の表示板に、検査対象に応じた検査項目を収集して表示できない問題がある。
本発明は、上記課題に鑑み、ウェアラブル端末の視界の画像から検査対象を特定して、検査対象に応じて収集した検査項目をウェアラブル端末の表示板に拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、ウェアラブル端末の視界に入った検査対象の画像を取得する画像取得手段と、前記ウェアラブル端末の、端末位置と撮像方向とを取得する位置方向取得手段と、前記端末位置と前記撮像方向とに基づいて、前記検査対象の対象位置を推測する推測手段と、前記画像を画像解析して、前記検査対象の機種を特定し、特定した当該検査対象の機種と推測した前記検査対象の位置とに基づいて、前記検査対象を特定する特定手段と、
前記検査対象に応じた検査項目を収集する収集手段と、前記ウェアラブル端末の表示板を透過して見える前記検査対象に対して、当該検査対象を一定時間見ることで選択対象の選択を受け付ける選択受付手段と、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記検査項目を拡張現実として表示する検査項目表示手段と、を備えるウェアラブル端末表示システムを提供する。
第1の特徴に係る発明は、コンピュータが実行するウェアラブル端末表示方法であって、ウェアラブル端末の視界に入った検査対象の画像を取得する画像取得ステップと、前記ウェアラブル端末の、端末位置と撮像方向とを取得するステップと、前記端末位置と前記撮像方向とに基づいて、前記検査対象の対象位置を推測するステップと、前記画像を画像解析して、前記検査対象の機種を特定し、特定した当該検査対象の機種と推測した前記検査対象の位置とに基づいて、前記検査対象を特定するステップと、前記検査対象に応じた検査項目を収集する収集ステップと、前記ウェアラブル端末の表示板を透過して見える前記検査対象に対して、当該検査対象を一定時間見ることで選択対象の選択を受け付ける選択受付ステップと、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記検査項目を拡張現実として表示する検査項目表示ステップと、を備えるウェアラブル端末表示方法を提供する。
第1の特徴に係る発明は、コンピュータに、ウェアラブル端末の視界に入った検査対象の画像を取得する画像取得ステップ、前記ウェアラブル端末の、端末位置と撮像方向とを取得するステップ、前記端末位置と前記撮像方向とに基づいて、前記検査対象の対象位置を推測するステップ、前記画像を画像解析して、前記検査対象の機種を特定し、特定した当該検査対象の機種と推測した前記検査対象の位置とに基づいて、前記検査対象を特定するステップ、前記検査対象に応じた検査項目を収集する収集ステップ、前記検査対象に応じた検査項目を収集する収集ステップ、前記ウェアラブル端末の表示板を透過して見える前記検査対象に対して、当該検査対象を一定時間見ることで選択対象の選択を受け付ける選択受付ステップ、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記検査項目を拡張現実として表示する検査項目表示ステップ、を実行させるためのコンピュータ読み取り可能なプログラムを提供する。
ウェアラブル端末の表示板に、検査対象に応じた検査項目を収集して表示できる。
図1は、ウェアラブル端末表示システムの概要図である。 図2は、ウェアラブル端末の表示板に検査対象に応じた検査項目を収集して表示した一例である。
以下、本発明を実施するための最良の形態について説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
本発明のウェアラブル端末表示システムは、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して、収集された検査項目を拡張現実として表示するシステムである。ウェアラブル端末とはスマートグラスやヘッドマウントディスプレイなどの視界がある端末のことである。検査対象の種類は問わない。
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態であるウェアラブル端末表示システムの概要図である。
図1にあるように、ウェアラブル端末表示システムは、制御部が所定のプログラムを読み込むことで実現される、画像取得手段、特定手段、収集手段、検査項目表示手段、を備える。また同様に、判定手段、変更手段、検出手段、アクション結果表示手段、位置方向取得手段、推測手段、ガイドライン表示手段、選択受付手段、を備えてもよい。これらは、アプリケーション型、クラウド型またはその他であってもよい。上述の各手段が、単独のコンピュータで実現されてもよいし、2台以上のコンピュータ(例えば、サーバと端末のような場合)で実現されてもよい。
画像取得手段は、ウェアラブル端末の視界に入った検査対象の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムに検査するためには、リアルタイムな画像の方が好ましい。
特定手段は、画像を画像解析して検査対象を特定する。検査対象の種類は問わないので、検査対象が何であるかを画像解析で特定することになる。例えば、機器の修理検査や、ビルの保守検査や、農作物の仕分け検査など、が挙げられる。また、映った対象全てを特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある対象を検査対象として特定してもよい。視界の中央にある対象だけを検査対象として特定することで特定に要する時間を大幅に短縮できる。機械学習によって画像解析の精度を向上させてもよい。例えば、検査対象の過去画像を教師データとして機械学習を行う。
収集手段は、検査対象に応じた検査項目を収集する。予め検査項目が登録されたデータベースを参照して検査対象に応じた検査項目を収集してもよい。例えば、予定されていた検査ならばデータベースに検査項目を用意しておくことが可能なのでデータベースを参照して取集できる。また、検査対象に予め紐付けられたWebコンテンツにアクセスして検査項目を収集してもよい。例えば、検査対象と検査項目とを紐づけるURLなど割当てることでWebコンテンツから収取できる。また、検査対象をインターネット検索して検索されたWebコンテンツから検査項目を収集してもよい。例えば、機器の修理検査の場合、機器を販売している企業のホームページに検査項目が掲載されているケースがあるので、インターネット検索から収集できる。
検査項目表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して検査項目を拡張現実として表示する。例えば図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた検査対象に対して、破線で描かれた検査項目を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた検査対象に対して検査項目を拡張現実で表示することで、検査対象にどのような検査項目があるのかを視覚的に把握することが出来る。拡張現実として表示する検査項目は、表示板を透過して見える検査対象に重なるように表示しても良いが、検査対象が見づらくなるので、検査項目の表示ON/OFFを切り替えられるようにしてもよい。
判定手段は、表示された検査項目が検査されたかどうかを判定する。検査中の画像を取得して画像解析をすることで、検査項目が検査されたかどうかを判定してもよい。また、ウェアラブル端末のセンサ情報や、検査者に装着されたセンサ情報などから、検査項目が検査されたかどうかを判定してもよい。
変更手段は、検査されたと判定された検査項目を検査済に変更し、検査されていないと判定された検査項目を検査されるように注目度を変更する。このようにすることで、どの検査項目が、検査済なのか、未検査なのか、を視覚的に把握できる。例えば、検査項目のチェックボックスにチェックを入れることで検査済とてもよい。例えば、検査項目にスタンプを押すことで検査済としてもよい。また、注目度の変更は、検査項目の色・サイズを変更したり、検査項目が目立つようにスタンプを押して変更したりしてもよい。
検出手段は、表示された検査項目に対するアクションを検出する。検査中の画像を取得して画像解析をすることで、検査項目に対するアクションを検出できる。また、ウェアラブル端末のセンサ情報や、検査者に装着されたセンサ情報などから、検査項目に対するアクションを検出できる。
アクション結果表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して、アクションに応じた結果を拡張現実として表示する。例えば、検査項目を消すアクションを検出したら検査項目の表示を消してよい。例えば、検査目に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。もちろん他のアクションでもよい。
位置方向手段は、ウェアラブル端末の端末位置と撮像方向とを取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これら以外から取得してもよい。
推測手段は、端末位置と撮像方向とに基づいて、検査対象の対象位置を推測する。端末位置と撮像方向が分かっていれば、撮像された検査対象の位置を推測することができる。
また、特定手段は、対象位置と画像解析とから、前記対象を特定してもよい。例えば、同じデザインの検査対象や、同じ機種の機器などは対象の位置を推測しないと一意的に特定できないことがある。例えば、画像解析から機器の機種を特定して、対象位置からどこに置かれている機器なのかを特定することができる。
ガイドライン表示手段は、ウェアラブル端末の表示板に、検査対象を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
また、取得手段は、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く検査対象を特定できる。
選択受付手段は、ウェアラブル端末の表示板を透過して見える検査対象に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える検査対象を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える検査対象にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える検査対象にカーソルを合わせることで選択対象の選択を受け付けてもよい。
また、検査項目表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、検査項目を拡張現実として表示してもよい。選択された選択対象にだけ合わせて検査項目を拡張現実として表示するので、ピンポイントに検査項目を把握することができる。特定された全ての検査対象に検査項目を表示すると表示板の画面が煩わしくなることがある。
[動作の説明]
次に、ウェアラブル端末表示方法について説明する。本発明のウェアラブル端末表示方法は、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して、収集された検査項目を拡張現実として表示する方法である。
ウェアラブル端末表示方法は、画像取得ステップ、特定ステップ、収集ステップ、検査項目表示ステップ、を備える。また同様に、判定ステップ、変更ステップ、検出ステップ、アクション結果表示ステップ、位置方向取得ステップ、推測ステップ、ガイドライン表示ステップ、選択受付ステップ、を備えてもよい。
画像取得ステップでは、画像取得手段が、ウェアラブル端末の視界に入った検査対象の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムに検査するためには、リアルタイムな画像の方が好ましい。
特定ステップでは、特定手段が、画像を画像解析して検査対象を特定する。検査対象の種類は問わないので、検査対象が何であるかを画像解析で特定することになる。例えば、機器の修理検査や、ビルの保守検査や、農作物の仕分け検査など、が挙げられる。また、映った対象全てを特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある対象を検査対象として特定してもよい。視界の中央にある対象だけを検査対象として特定することで特定に要する時間を大幅に短縮できる。機械学習によって画像解析の精度を向上させてもよい。例えば、検査対象の過去画像を教師データとして機械学習を行う。
収集ステップでは、収集手段が、検査対象に応じた検査項目を収集する。予め検査項目が登録されたデータベースを参照して検査対象に応じた検査項目を収集してもよい。例えば、予定されていた検査ならばデータベースに検査項目を用意しておくことが可能なのでデータベースを参照して取集できる。また、検査対象に予め紐付けられたWebコンテンツにアクセスして検査項目を収集してもよい。例えば、検査対象と検査項目とを紐づけるURLなど割当てることでWebコンテンツから収取できる。また、検査対象をインターネット検索して検索されたWebコンテンツから検査項目を収集してもよい。例えば、機器の修理検査の場合、機器を販売している企業のホームページに検査項目が掲載されているケースがあるので、インターネット検索から収集できる。
検査項目表示ステップでは、検査項目表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して検査項目を拡張現実として表示する。例えば図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた検査対象に対して、破線で描かれた検査項目を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた検査対象に対して検査項目を拡張現実で表示することで、検査対象にどのような検査項目があるのかを視覚的に把握することが出来る。拡張現実として表示する検査項目は、表示板を透過して見える検査対象に重なるように表示しても良いが、検査対象が見づらくなるので、検査項目の表示ON/OFFを切り替えられるようにしてもよい。
判定ステップでは、判定手段は、表示された検査項目が検査されたかどうかを判定する。検査中の画像を取得して画像解析をすることで、検査項目が検査されたかどうかを判定してもよい。また、ウェアラブル端末のセンサ情報や、検査者に装着されたセンサ情報などから、検査項目が検査されたかどうかを判定してもよい。
変更ステップでは、変更手段は、検査されたと判定された検査項目を検査済に変更し、検査されていないと判定された検査項目を検査されるように注目度を変更する。このようにすることで、どの検査項目が、検査済なのか、未検査なのか、を視覚的に把握できる。例えば、検査項目のチェックボックスにチェックを入れることで検査済とてもよい。例えば、検査項目にスタンプを押すことで検査済としてもよい。また、注目度の変更は、検査項目の色・サイズを変更したり、検査項目が目立つようにスタンプを押して変更したりしてもよい。
検出ステップでは、検出手段は、表示された検査項目に対するアクションを検出する。検査中の画像を取得して画像解析をすることで、検査項目に対するアクションを検出できる。また、ウェアラブル端末のセンサ情報や、検査者に装着されたセンサ情報などから、検査項目に対するアクションを検出できる。
アクション結果表示ステップでは、アクション結果表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える検査対象に対して、アクションに応じた結果を拡張現実として表示する。例えば、検査項目を消すアクションを検出したら検査項目の表示を消してよい。例えば、検査目に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。もちろん他のアクションでもよい。
位置方向ステップでは、位置方向手段が、ウェアラブル端末の端末位置と撮像方向とを取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これら以外から取得してもよい。
推測ステップでは、推測手段は、端末位置と撮像方向とに基づいて、検査対象の対象位置を推測する。端末位置と撮像方向が分かっていれば、撮像された検査対象の位置を推測することができる。
また、特定ステップでは、特定手段が、対象位置と画像解析とから、前記対象を特定してもよい。例えば、同じデザインの検査対象や、同じ機種の機器などは対象の位置を推測しないと一意的に特定できないことがある。例えば、画像解析から機器の機種を特定して、対象位置からどこに置かれている機器なのかを特定することができる。
ガイドライン表示ステップでは、ガイドライン表示手段が、ウェアラブル端末の表示板に、検査対象を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
また、取得ステップでは、取得手段が、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く検査対象を特定できる。
選択受付ステップでは、選択受付手段が、ウェアラブル端末の表示板を透過して見える検査対象に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える検査対象を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える検査対象にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える検査対象にカーソルを合わせることで選択対象の選択を受け付けてもよい。
また、検査項目表示ステップでは、検査項目表示手段が、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、検査項目を拡張現実として表示してもよい。選択された選択対象にだけ合わせて検査項目を拡張現実として表示するので、ピンポイントに検査項目を把握することができる。特定された全ての検査対象に検査項目を表示すると表示板の画面が煩わしくなることがある。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータにインストールされるアプリケーションであってもよいし、コンピュータからネットワーク経由で提供されるSaaS(ソフトウェア・アズ・ア・サービス)形態であってもよいし、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供されてもよい。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
上述した機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシン、強化学習などを利用してよい。また、ニューラルネットワークを利用して、学習するための特徴量を自ら生成する深層学習(ディープラーニング)であってもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。

Claims (11)

  1. ウェアラブル端末の視界に入った検査対象の画像を取得する画像取得手段と、
    前記ウェアラブル端末の、端末位置と撮像方向とを取得する位置方向取得手段と、
    前記端末位置と前記撮像方向とに基づいて、前記検査対象の対象位置を推測する推測手段と、
    前記画像を画像解析して、前記検査対象の機種を特定し、特定した当該検査対象の機種と推測した前記検査対象の位置とに基づいて、前記検査対象を特定する特定手段と、
    前記検査対象に応じた検査項目を収集する収集手段と、
    前記ウェアラブル端末の表示板を透過して見える前記検査対象に対して、当該検査対象を一定時間見ることで選択対象の選択を受け付ける選択受付手段と、
    前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記検査項目を拡張現実として表示する検査項目表示手段と、
    を備えるウェアラブル端末表示システム。
  2. 前記特定手段は、前記ウェアラブル端末の視界の中央にある対象を、前記検査対象として特定する請求項1に記載のウェアラブル端末表示システム。
  3. 前記収集手段は、予め検査項目が登録されたデータベースを参照して、前記検査対象に応じた検査項目を収集する請求項1に記載のウェアラブル端末表示システム。
  4. 前記収集手段は、前記検査対象に予め紐付けられたWebコンテンツにアクセスして、前記検査項目を収集する請求項1に記載のウェアラブル端末表示システム。
  5. 前記収集手段は、前記検査対象をインターネット検索して、検索されたWebコンテンツから前記検査項目を収集する請求項1に記載のウェアラブル端末表示システム。
  6. 前記表示された検査項目が検査されたかどうかを判定する判定手段と、
    検査されたと判定された場合に、前記表示された検査項目を検査済みに変更する変更手段と、を備える請求項1に記載のウェアラブル端末表示システム。
  7. 前記表示された検査項目が検査されたかどうかを判定する判定手段と、
    検査されていないと判定された場合に、前記表示された検査項目が検査されるように注目度を変更する変更手段と、を備える請求項1に記載のウェアラブル端末表示システム。
  8. 前記表示された検査項目に対するアクションを検出する検出手段と、
    前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記検査対象に対して、前記アクションに応じた結果を拡張現実として表示するアクション結果表示手段と、を備える請求項1に記載のウェアラブル端末表示システム。
  9. 前記ウェアラブル端末の表示板に、前記検査対象を撮像するためのガイドラインを拡張現実として表示するガイドライン表示手段を備え、
    前記取得手段は、前記ガイドラインに沿って撮像された前記画像を取得する請求項1に記載のウェアラブル端末表示システム。
  10. コンピュータが実行するウェアラブル端末表示方法であって、
    ウェアラブル端末の視界に入った検査対象の画像を取得する画像取得ステップと、
    前記ウェアラブル端末の、端末位置と撮像方向とを取得するステップと、
    前記端末位置と前記撮像方向とに基づいて、前記検査対象の対象位置を推測するステップと、
    前記画像を画像解析して、前記検査対象の機種を特定し、特定した当該検査対象の機種と推測した前記検査対象の位置とに基づいて、前記検査対象を特定するステップと、
    前記検査対象に応じた検査項目を収集する収集ステップと、
    前記ウェアラブル端末の表示板を透過して見える前記検査対象に対して、当該検査対象を一定時間見ることで選択対象の選択を受け付ける選択受付ステップと、
    前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記検査項目を拡張現実として表示する検査項目表示ステップと、
    を備えるウェアラブル端末表示方法。
  11. コンピュータに、
    ウェアラブル端末の視界に入った検査対象の画像を取得する画像取得ステップ、
    前記ウェアラブル端末の、端末位置と撮像方向とを取得するステップ、
    前記端末位置と前記撮像方向とに基づいて、前記検査対象の対象位置を推測するステップ、
    前記画像を画像解析して、前記検査対象の機種を特定し、特定した当該検査対象の機種と推測した前記検査対象の位置とに基づいて、前記検査対象を特定するステップ、
    前記検査対象に応じた検査項目を収集する収集ステップ、
    前記ウェアラブル端末の表示板を透過して見える前記検査対象に対して、当該検査対象を一定時間見ることで選択対象の選択を受け付ける選択受付ステップ、
    前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記検査項目を拡張現実として表示する検査項目表示ステップ、
    を実行させるためのコンピュータ読み取り可能なプログラム。
JP2019508018A 2017-03-30 2017-03-30 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム Active JP6762470B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/013263 WO2018179230A1 (ja) 2017-03-30 2017-03-30 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018179230A1 JPWO2018179230A1 (ja) 2019-11-14
JP6762470B2 true JP6762470B2 (ja) 2020-09-30

Family

ID=63677654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508018A Active JP6762470B2 (ja) 2017-03-30 2017-03-30 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム

Country Status (2)

Country Link
JP (1) JP6762470B2 (ja)
WO (1) WO2018179230A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (ja) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology 情報提示装置および情報提示方法
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP6124543B2 (ja) * 2011-12-26 2017-05-10 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP6007712B2 (ja) * 2012-09-28 2016-10-12 ブラザー工業株式会社 ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
JP6119228B2 (ja) * 2012-12-13 2017-04-26 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム
JP6264972B2 (ja) * 2014-03-18 2018-01-24 富士通株式会社 表示装置、表示制御プログラム、および表示制御方法
WO2015173882A1 (ja) * 2014-05-13 2015-11-19 株式会社日立製作所 コンテンツ生成方法および管理装置

Also Published As

Publication number Publication date
WO2018179230A1 (ja) 2018-10-04
JPWO2018179230A1 (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
US10878290B2 (en) Automatically tagging images to create labeled dataset for training supervised machine learning models
JP6267841B1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
US20180247361A1 (en) Information processing apparatus, information processing method, wearable terminal, and program
CN104919794A (zh) 用于从主从式相机跟踪系统提取元数据的方法和系统
JP2009048430A (ja) 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
CN108681908A (zh) 反作弊方法、装置、计算设备及存储介质
US9361513B2 (en) Sorting system using wearable input device
US20210064761A1 (en) Security information processing device, information processing method, and recording medium
JP6887198B2 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP7081310B2 (ja) 行動分析装置、行動分析システム、行動分析方法、プログラムおよび記録媒体
JP6762470B2 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
Paudel et al. A deep-learning based worker’s pose estimation
WO2018198320A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2019021446A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2018216220A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2018216221A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2019003359A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2021186673A1 (ja) 処理装置、処理方法及びプログラム
CN112950329A (zh) 商品动态信息生成方法、装置、设备及计算机可读介质
WO2019021447A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP2023043625A (ja) 製品品質検査システム
JP2023043626A (ja) 製品品質検査システム
JP6343412B1 (ja) 地図連動センサ情報表示システム、地図連動センサ情報表示方法およびプログラム
Mugunthan Early prediction of fire accident in petroleum industries by statistical machine learning algorithm
JP7185535B2 (ja) 検品支援方法、及び検品支援システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200716

R150 Certificate of patent or registration of utility model

Ref document number: 6762470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250