JP2018206103A - ヘッドマウントディスプレイおよび作業支援システム - Google Patents
ヘッドマウントディスプレイおよび作業支援システム Download PDFInfo
- Publication number
- JP2018206103A JP2018206103A JP2017111387A JP2017111387A JP2018206103A JP 2018206103 A JP2018206103 A JP 2018206103A JP 2017111387 A JP2017111387 A JP 2017111387A JP 2017111387 A JP2017111387 A JP 2017111387A JP 2018206103 A JP2018206103 A JP 2018206103A
- Authority
- JP
- Japan
- Prior art keywords
- work
- model
- unit
- work object
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】作業対象物の位置と作業情報の表示位置とが正しい位置関係になるようにユーザを導くことができるヘッドマウントディスプレイを提供する。【解決手段】撮像部は、ユーザの視線の先にある作業対象物を撮像する。大きさ・姿勢判断部は、撮像された作業対象物の画像と、作業対象物の3Dモデルとを基にして、ユーザから見た作業対象物の大きさおよび姿勢を判断する。3D輪郭線生成部は、大きさおよび姿勢を有する3Dモデルを用いて、3D輪郭線25−1を生成する。表示制御部は、3D輪郭線25−1と作業情報20−1とを合成した合成画像27−1をユーザの視界に表示させる。【選択図】図14
Description
本発明は、ヘッドマウントディスプレイを用いて作業を支援する技術に関する。
ヘッドマウントディスプレイの用途として、作業(例えば、組み立て作業、ピッキング作業)の支援がある。ヘッドマウントディスプレイは、作業対象物に対する作業内容を示す作業情報を表示することにより、ユーザの作業を支援する。作業対象物とは、例えば、組み立て途中の物である。作業とは、例えば、その物に部品を取り付けることである。
図22は、作業情報の例を説明する説明図である。この例は、部品が取り付けられる箇所を示す矢印33a(矢印に限らず、部品が取り付けられる箇所を示すことができる記号、図形でもよい)と、部品の画像33bと、部品を取り付けることを指示する文字情報33cと、により構成される作業情報33である。
作業情報33の表示位置が適切でないと、ユーザは、作業を間違うおそれがある。図23は、作業対象物35の位置と作業情報33の表示位置との関係が正しい位置関係の場合の例を説明する説明図である。図24は、作業対象物35の位置と作業情報33の表示位置との関係が誤った位置関係の場合の例を説明する説明図である。図23および図24は、シースルー型のヘッドマウントディスプレイを介して、現実世界の作業対象物35を見た状態を示している。例えば、同じ寸法を有する複数の穴を有する作業対象物35において、定められた1つの穴に部品を挿入する作業の場合、挿入すべき穴を示す矢印の位置(すなわち、作業情報33の表示位置)が誤っていると、別の穴に部品が挿入されるおそれがある。
特許文献1は、作業対象物を撮像装置で撮像した画像を処理して、作業対象物の位置を検出し、この位置を基にして、作業情報を表示するヘッドマウントディスプレイを開示している。
作業対象物は現実世界にあり、作業情報は現実世界にないので、当初、作業対象物35の位置と作業情報33の表示位置とが正しい位置関係であっても(図23)、例えば、ヘッドマウントディスプレイを装着しているユーザが、顔の向き変えたり、姿勢を変えたり、ユーザが装着しているヘッドマウントディスプレイがずれたりすると、作業対象物35の位置と作業情報33の表示位置とが誤った位置関係となる(図24)。これにより、ユーザが作業を間違うおそれがある。
本発明の目的は、作業対象物の位置と作業情報の表示位置とが正しい位置関係になるようにユーザを導くことができるヘッドマウントディスプレイおよび作業支援システムを提供することである。
本発明の第1局面に係るヘッドマウントディスプレイは、ヘッドマウントディスプレイを装着しているユーザの視線の先にある作業対象物を撮像する撮像部と、前記作業対象物の3Dモデルを予め記憶する第1記憶部と、前記撮像部が撮像した前記作業対象物の画像と前記3Dモデルとを基にして、前記ヘッドマウントディスプレイを装着している前記ユーザから見た前記作業対象物の大きさおよび姿勢を判断する判断部と、前記判断部が判断した前記大きさおよび前記姿勢を有する前記3Dモデルを用いて、前記3Dモデルの輪郭を示す3D輪郭線を生成する第1生成部と、前記作業対象物に対する作業内容を示す作業情報を予め記憶する第2記憶部と、前記3D輪郭線と前記作業情報とを合成した合成画像を生成する第2生成部と、前記合成画像を前記ユーザの視界に表示させる表示制御部と、を備える。
3D輪郭線は、ヘッドマウントディスプレイを装着しているユーザから見た作業対象物の大きさおよび姿勢を有する3Dモデルの輪郭を示す線である。よって、ユーザから見て、3D輪郭線は、作業対象物と大きさおよび姿勢が同じ(またはほぼ同じ)となる。合成画像は、3D輪郭線と作業情報とを合成した画像である。ユーザは、視界に表示された合成画像に含まれる3D輪郭線を、作業対象物の輪郭と重なるように、顔を動かす。これにより、作業対象物の位置と作業情報の表示位置とが正しい位置関係にすることができる。
3D輪郭線で囲まれた領域は、シースルーである。このため、3D輪郭線で囲まれた領域は、ユーザの視野の妨げとならないので、作業性を向上させることできる。
上記構成において、前記第1記憶部は、複数の過程のそれぞれにおいて、前記ユーザが作業をする前記作業対象物の形に対応する前記3Dモデルを予め記憶しており、前記判断部は、前記複数の過程のそれぞれにおいて、過程の開始前に前記撮像部が撮像した前記作業対象物の画像と、前記第1記憶部に記憶されている前記3Dモデルと、を基にして、前記ユーザから見た前記作業対象物の大きさおよび姿勢を判断する。
複数の過程により構成される作業の場合、過程毎に作業対象物の形(輪郭)が異なるので、3Dモデルの形(輪郭)は、過程毎に異なる。このため、各過程での作業対象物に対応する3Dモデルを用いなければ、正確な3D輪郭線(作業対象物の輪郭にフィットする3D輪郭線)を生成することができない。この構成によれば、複数の過程のそれぞれにおいて、過程の開始前に、撮像部が撮像した作業対象物の画像と第1記憶部に記憶されている3Dモデルとを基にして、ユーザから見た作業対象物の大きさおよび姿勢を判断するので、正確な3D輪郭線を生成することができる。
上記構成において、前記撮像部が撮像した前記作業対象物の画像を基にして、前記作業対象物の色を検出する色検出部をさらに備え、前記第2生成部は、前記色検出部が検出した前記作業対象物の色と同じ色の色マークを含む前記合成画像を生成する。
この構成は、例えば、作業対象物の色が単一色である場合に適用できる。同じ形を有する作業対象物が複数あり、これらの色が互いに異なることがある。例えば、第1の作業対象物が赤色であり、第2の作業対象物が黄色であり、第3の作業対象物が青色である。このような作業対象物が、ヘッドマウントディスプレイを装着しているユーザの目の前に並べられている場合、ユーザが作業を間違うおそれがある。この構成によれば、作業対象物の色と同じ色の色マークを含む合成画像を生成するので、上記場合でも、ユーザが作業を間違わないようにすることができる。なお、作業対象物の色が単一色に限らず、例えば、作業対象物の大部分(例えば、90%以上)が同じ色の場合にも適用できる。
本発明の第2局面に係る作業支援システムは、ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能なサーバと、を備える作業支援システムであって、前記ヘッドマウントディスプレイに備えられ、前記ヘッドマウントディスプレイを装着している前記ユーザの視線の先にある作業対象物を撮像する撮像部と、前記サーバに備えられ、前記作業対象物の3Dモデルを予め記憶する第1記憶部と、前記サーバに備えられ、前記撮像部が撮像した前記作業対象物の画像と前記3Dモデルとを基にして、前記ヘッドマウントディスプレイを装着している前記ユーザから見た前記作業対象物の大きさおよび姿勢を判断する判断部と、前記サーバに備えられ、前記判断部が判断した前記大きさおよび前記姿勢を有する前記3Dモデルを用いて、前記3Dモデルの輪郭を示す3D輪郭線を生成する第1生成部と、前記サーバに備えられ、前記作業対象物に対する作業内容を示す作業情報を予め記憶する第2記憶部と、前記サーバに備えられ、前記3D輪郭線と前記作業情報とを合成した合成画像を生成する第2生成部と、前記ヘッドマウントディスプレイに備えられ、前記合成画像を前記ユーザの視界に表示させる表示制御部と、を備える。
本発明の第2局面に係る作業支援システムは、本発明の第1局面に係るヘッドマウントディスプレイをシステムの観点から規定しており、本発明の第1局面に係るヘッドマウントディスプレイと同様の作用効果を有する。
本発明によれば、作業対象物の位置と作業情報の表示位置とが正しい位置関係になるようにユーザを導くことができる。
以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
図1は、実施形態に係るヘッドマウントディスプレイ100の構造的な構成を示す斜視図である。図2は、実施形態に係る作業支援システム1000の構成を示すブロック図である。作業支援システム1000は、ヘッドマウントディスプレイ100(以下、HMD100)と、サーバ300と、を備える。実施形態では、HMD100がサーバ300を備えておらず、HMD100とは別にサーバ300が設けられている。しかしながら、HMD100がサーバ300を備えてもよい。実施形態では、前者の態様で説明する。
作業支援システム1000は、組み立て作業を支援する。組み立て作業は、複数の過程により構成される。実施形態では、説明を簡単にするために、2つの過程で完成される場合を例にする。図5は、第1過程での作業対象物(ワーク)11−1の例を示す斜視図である。図6は、第2過程での作業対象物(ワーク)11−2の例を示す斜視図である。図7は、完成品15を示す斜視図である。作業対象物11−2は、作業対象物11−1に部品13−1が取り付けられた物である。完成品15は、作業対象物11−2に部品13−2が取り付けられた物である。
図1を参照して、HMD100は、フレーム101と、眼鏡レンズ102と、主本体部103と、を備える。右側(ユーザーの利き目等に応じて左側でもよい)の眼鏡レンズ102の上部において、円筒状の主本体部103がフレーム101の前方部101aに固定されている。主本体部103にはディスプレイユニット104が設けられている。主本体部103内には、後述する制御処理部121からの指示に基づいてディスプレイユニット104の表示制御を司る表示制御部104DR(図2)が配置されている。なお、必要に応じて両眼の前にそれぞれディスプレイユニットが配置されてもよい。
ディスプレイユニット104は、ディスプレイ104A(図2)と画像表示部104Bとを備える。ディスプレイ104Aは、主本体部103内に組み込まれている。
いわゆるシースルー型の表示部材である画像表示部104Bは、主本体部103から下方に向かい、片方の眼鏡レンズ102に平行に延在するように配置された全体的に板状の部材である。画像表示部104Bは、ホログラフィック光学素子(不図示)を備える。このホログラフィック光学素子は、ディスプレイ104A(図2)に表示された画像を反射すると共に、外界からの光を透過する。
主本体部103の正面には、フレーム101の中央寄りに配置されたジェスチャー入力部105と、フレーム101の側部寄りに配置された撮像部106(図2)のレンズ106aとが、前方を向くようにして設けられている。ジェスチャー入力部105は、ユーザが行うジェスチャーを入力する装置である。ユーザは、ジェスチャー入力によって、HMD100を操作することができる。HMD100の操作は、ジェスチャー入力に限らず、HMD100に適用可能な入力方法であればよい。例えば、音声入力でもよし、ユーザの首の動きを用いた入力でもよい(ジャイロセンサーによって、ユーザの首の動きを検知する)。
図2を参照して、HMD100は、制御ユニットCTUと、ディスプレイユニット104と、表示制御部104DRと、ジェスチャー入力部105と、撮像部106と、を備える。制御ユニットCTUは、制御処理部121と、操作部122と、通信部124と、バッテリ126と、電源回路127とを備える。
表示制御部104DRは、制御処理部121に接続され、制御処理部121の制御に従ってディスプレイユニット104のディスプレイ104Aを制御することで、ディスプレイ104Aに画像を形成させる回路である。
ジェスチャー入力部105は、制御処理部121に接続され、制御処理部121の制御に従って、ユーザが行うジェスチャーを入力する装置である。例えば、制御処理部121が、ジェスチャー入力部105に入力されたジェスチャーが画像の撮像命令と認識したとき、制御処理部121は、撮像部106に画像を撮像させる制御をする。
撮像部106は、制御処理部121に接続され、制御処理部121の制御に従って、被写体の画像を生成する装置である。撮像部106は、前記生成した画像データを制御処理部121へ出力する。
制御処理部121は、HMD100の各部を当該各部の機能に応じてそれぞれ制御すると共に、ジェスチャー入力部105に入力されたジェスチャーを認識し、認識したジェスチャーに割り当てられた命令に応じた処理を実行する。
操作部122は、制御処理部121に接続され、例えば電源のオンオフ等の、予め設定された所定の指示をHMD100に入力する機器であり、例えば、所定の機能を割り付けられた1または複数のスイッチ等である。
通信部124は、制御処理部121に接続され、制御処理部121の制御に従って、外部装置(例えば、サーバ300)との間でデータの入出力を行う回路である。
バッテリ126は、電力を蓄積し、電力を供給する電池である。バッテリ126は、一次電池であってよく、また、二次電池であってよい。電源回路127は、バッテリ126から供給された電力を、電力を必要とする、当該HMD100の各部へ各部に応じた電圧で供給する回路である。
図3は、HMD100のハードウェア構成を示すブロック図である。HMD100は、CPU(Central Processing Unit)100a、RAM(Random Access Memory)100b、ROM(Read Only Memory)100c、デジタルカメラ100d、液晶ディスプレイ100e、通信インターフェイス100f、スイッチ等100g、近接センサ100h、及び、これらを接続するバス100iを備える。
図2および図3を参照して、デジタルカメラ100dは、撮像部106を実現する装置である。液晶ディスプレイ100eは、ディスプレイ104Aを実現するハードウェアである。通信インターフェイス100fは、通信部124を実現するハードウェアであり、例えば、シリアル通信方式であるRS232Cのインターフェイス回路、Bluetooth(登録商標)規格を用いたインターフェイス回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェイス回路、USB(Universal Serial Bus)規格を用いたインターフェイス回路等である。スイッチ等100gは、操作部122を実現するハードウェアである。近接センサー100hは、ジェスチャー入力部105を実現するハードウェアである。
ROM100cは、HMD100の機能を実現するための各種の所定プログラムおよび各種の所定データが記憶されている。各種プログラムには、図12Aおよび図12Bの中で、HMD100側のフローチャートを実行するためのプログラムが含まれる。
CPU100aは、これらのプログラムを、ROM100cから読み出してRAM100bに展開させ、展開されたプログラムを実行することによって、制御処理部121および表示制御部104DRが実現される。但し、制御処理部121の機能および表示制御部104の機能について、各機能の一部又は全部は、CPU100aによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
図2を参照して、サーバ300について説明する。サーバ300は、機能ブロックとして、操作部301と、ディスプレイ302と、通信部303と、2Dモデル生成部304と、大きさ・姿勢判断部305と、3D輪郭線生成部306と、合成画像生成部307と、3Dモデル記憶部308と、2Dモデル記憶部309と、作業情報記憶部310と、を備える。
操作部301は、ユーザがサーバ300を操作するための入力装置である。ディスプレイ302は、ユーザがサーバ300を操作しているときに、その操作に関連する画面を表示する装置である。通信部303は、通信部124と同様であり、説明を省略する。
3Dモデル記憶部308(第1記憶部)は、作業対象物11の3Dモデル17を予め記憶している。詳しく説明すると、図8Aは、第1過程での作業対象物11−1(図5)の3Dモデル17−1を示す斜視図である。図8Bは、第2過程での作業対象物11−2(図6)の3Dモデル17−2を示す斜視図である。3Dモデル記憶部308には、3Dモデル17−1および3Dモデル17−2が予め記憶されている。このように、3Dモデル記憶部308は、複数の過程(第1過程、第2過程)のそれぞれにおいて、ユーザが作業をする作業対象物11−1,11−2の形に対応する3Dモデル17−1,17−2を予め記憶している。
作業情報記憶部310(第2記憶部)は、作業対象物11−1(図5)に対する作業内容を示す作業情報20−1(図14)、および、作業対象物11−2(図6)に対する作業内容を示す作業情報20−2(図18)を予め記憶している。詳しく説明すると、図9Aは、部品13−1(図6)の3Dモデル21−1を示す斜視図である。図9Bは、部品13−2(図7)の3Dモデル21−2を示す斜視図である。図10Aは、作業対象物11−1(図5)に対する作業指示を示す指示情報23−1を説明する説明図である。図10Bは、作業対象物11−2(図6)に対する作業指示を示す指示情報23−2を説明する説明図である。作業情報20−1は、3Dモデル21−1と指示情報23−1とにより構成され、作業対象物11−1(図5)に対する作業の支援で使用される。3Dモデル21−1と指示情報23−1とは、紐づけられて、作業情報記憶部310に記憶されている。作業情報20−2は、3Dモデル21−2と指示情報23−2とにより構成され、作業対象物11−2(図6)に対する作業の支援で使用される。3Dモデル21−2と指示情報23−2とは、紐づけられて、作業情報記憶部310に記憶されている。指示情報23−1,23−2は、部品が取り付けられる箇所を示す矢印(矢印に限らず、部品が取り付けられる箇所を示すことができる記号、図形でもよい)と、部品を取り付けることを指示する文字情報と、により構成される。
図2を参照して、2Dモデル生成部304は、3Dモデル17を用いて2Dモデル19を生成する。詳しく説明すると、図11Aは、作業対象物11−1の3Dモデル17−1(図8A)と、これを基にして生成された複数の2Dモデル19−1とを説明する説明図である。ここでは、3Dモデル17−1および2Dモデル19−1が、具体的な形で示されておらず、ブロックで示されている。図11Bは、作業対象物11−2の3Dモデル17−2(図8B)と、これを基にして生成された複数の2Dモデル19−2とを説明する説明図である。ここでは、3Dモデル17−2および2Dモデル19−2が、具体的な形で示されておらず、ブロックで示されている。これらの2Dモデル19−1、および、これらの2Dモデル19−2は、撮像部106が撮像した作業対象物11の画像とのパターンマッチングの対象となる。
図2および図11Aを参照して、2Dモデル生成部304は、作業対象物11−1の3Dモデル17−1(図8A)を用いて、作業対象物11−1を3次元空間のあらゆる位置、角度から見たときの作業対象物11−1の2Dモデル19−1を生成する。生成される2Dモデル19−1の数は、例えば、数百から数千である。3Dモデル17−1を見る位置に応じて、3Dモデル17−1の大きさが異なる。3Dモデル17−1を見る角度に応じて、3Dモデル17−1の姿勢が異なる。このため、3Dモデル17−1を見る角度が同じでも(3Dモデル17−1の姿勢が同じ)、3Dモデル17−1を見る位置が異なれば、3Dモデル17−1の大きさが異なる。よって、姿勢が同じで大きさが異なる複数の2Dモデル19−1が生成されることになる。2Dモデル生成部304は、これらの2Dモデル19−1を2Dモデル記憶部309に記憶させると共に、各2Dモデル19−1について、2Dモデル19−1と、その2Dモデル19−1が得られた3Dモデル17−1の大きさおよび姿勢と、を対応付けて、2Dモデル記憶部309に記憶させる。3Dモデル17−1の大きさおよび姿勢は、後述する3D輪郭線25−1(図13)の生成に用いられる。
図2および図11Bを参照して、2Dモデル生成部304は、作業対象物11−2の3Dモデル17−2(図8B)を用いて、作業対象物11−2を3次元空間のあらゆる位置、角度から見たときの作業対象物11−2の2Dモデル19−2を生成する。2Dモデル19−1と同様に、生成される2Dモデル19−2の数は、例えば、数百から数千である。3Dモデル17−2を見る位置に応じて、3Dモデル17−2の大きさが異なる。3Dモデル17−2を見る角度に応じて、3Dモデル17−2の姿勢が異なる。このため、3Dモデル17−2を見る角度が同じでも(3Dモデル17−2の姿勢が同じ)、3Dモデル17−2を見る位置が異なれば、3Dモデル17−2の大きさが異なる。よって、姿勢が同じで大きさが異なる複数の2Dモデル19−2が生成されることになる。2Dモデル生成部304は、これらの2Dモデル19−2を2Dモデル記憶部309に記憶させると共に、各2Dモデル19−2について、2Dモデル19−2と、その2Dモデル19−2が得られた3Dモデル17−2の大きさおよび姿勢と、を対応付けて、2Dモデル記憶部309に記憶させる。3Dモデル17−2の大きさおよび姿勢は、後述する3D輪郭線25−2(図17)の生成に用いられる。
大きさ・姿勢判断部305、3D輪郭線生成部306、および、合成画像生成部307については、後で説明する。
図4は、サーバ300のハードウェア構成を示すブロック図である。サーバ300は、CPU300a、RAM300b、ROM300c、HDD(Hard Disk Drive)300d、液晶ディスプレイ300e、通信インターフェイス300f、キーボード等300g、及び、これらを接続するバス300hを備える。
図2および図4を参照して、液晶ディスプレイ300eは、ディスプレイ302を実現するハードウェアである。液晶ディスプレイ300eの替わりに、有機ELディスプレイ(Organic Light Emitting Diode display)、プラズマディスプレイ等でもよい。通信インターフェイス300fは、通信部303を実現するハードウェアであり、例えば、シリアル通信方式であるRS232Cのインターフェイス回路、Bluetooth(登録商標)規格を用いたインターフェイス回路、IrDA規格等の赤外線通信を行うインターフェイス回路、USB規格を用いたインターフェイス回路等である。キーボード等300gは、操作部301を実現するハードウェアである。キーボードの替わりに、タッチパネルでもよい。
HDD300dは、3Dモデル記憶部308、2Dモデル記憶部309、および、作業情報記憶部310の機能を実現する。HDD300dには、2Dモデル生成部304、大きさ・姿勢判断部305、3D輪郭線生成部306、および、合成画像生成部307について、これらの機能ブロックをそれぞれ実現するためのプログラム、及び、各種データが格納されている。これらのプログラムは、HDD300dに予め記憶されているが、これに限定されない。例えば、これらのプログラムを記録している記録媒体(例えば、磁気ディスク、光学ディスクのような外部記録媒体)が用意されており、この記録媒体に記憶されているプログラムがHDD300dに記憶されてもよい。また、これらのプログラムは、サーバ300とネットワーク接続された別のサーバ(不図示)に格納されており、ネットワークを介して、これらのプログラムがHDD300dに送られ、HDD300dに記憶されてもよい。これらのプログラムは、HDD300dの替わりにROM300cに記憶してもよい。サーバ300は、HDD300dの替わりに、フラッシュメモリを備え、これらのプログラムはフラッシュメモリに記憶してもよい。
CPU300aは、これらのプログラムを、HDD300dから読み出してRAM300bに展開させ、展開されたプログラムを実行することによって、2Dモデル生成部304、大きさ・姿勢判断部305、3D輪郭線生成部306、および、合成画像生成部307が実現される。但し、2Dモデル生成部304の機能、大きさ・姿勢判断部305の機能、3D輪郭線生成部306の機能、および、合成画像生成部307の機能について、各機能の一部又は全部は、CPU300aによる処理に替えて、又は、これと共に、DSPによる処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
後で説明する図12Aおよび図12Bのうち、サーバ300側のフローチャートが、CPU300aによって実行されるこれらのプログラムのフローチャートである。
次に、作業支援システム1000を用いた組み立て作業の支援について説明する。図12Aおよび図12Bは、これを説明するフローチャートである。図2を参照して、HMD100を装着したユーザの視線の先に、作業対象物11−1(図5)がある。HMD100は、シースルー型なので、ユーザは、作業対象物11−1を見ることができる。ユーザは、撮像命令に割り当てられたジェスチャーをジェスチャー入力部105に入力する。制御処理部121は、撮像部106を制御して、作業対象物11−1を含む第1画像を撮像する(図12AのステップS1)。制御処理部121は、通信部124を用いて、第1画像をサーバ300へ送信する(図12AのステップS2)。
通信部303は、通信部124が送信した第1画像を受信する(図12AのステップT1)。大きさ・姿勢判断部305は、第1画像から作業対象物11−1の画像を抽出する。大きさ・姿勢判断部305(判断部)は、作業対象物11−1の画像(すなわち、作業対象物11−1の2次元画像)を、2Dモデル記憶部309に予め記憶されている複数の2Dモデル19(図11A、図11B)のそれぞれとパターンマッチングし、類似度が一番大きい2Dモデル19を特定する(図12AのステップT2)。作業対象物11−1(図5)は、3Dモデル17−1(図8A)と同じ形状を有するので、類似度が一番大きい2Dモデル19は、複数の2Dモデル19−1(図11A)の中から特定されることになる。
大きさ・姿勢判断部305が特定した2Dモデル19−1には、この2Dモデル19−1の作成に用いられた3Dモデル17−1の大きさおよび姿勢が対応付けられている。この大きさおよび姿勢が、作業対象物11−1の大きさおよび姿勢となる。以上説明したように、大きさ・姿勢判断部305は、撮像部106が撮像した作業対象物11の画像と3Dモデル17とを基にして、HMD100を装着しているユーザから見た作業対象物11の大きさおよび姿勢を判断する。
3D輪郭線生成部306(第1生成部)は、ステップT2において、大きさ・姿勢判断部305が特定した2Dモデル19−1に対応づけられた大きさおよび姿勢を有する3Dモデル17−1の輪郭を示す3D輪郭線25−1(図13)を生成する(図12AのステップT3)。図13は、3D輪郭線25−1を示す斜視図である。輪郭線は、稜線または外形線と言い換えることができる。3D輪郭線25−1は、大きさ・姿勢判断部305が特定した2Dモデル19−1に対応づけられた大きさおよび姿勢を有する3Dモデル17−1の輪郭線なので、HMD100を装着したユーザから見た、3D輪郭線25−1の大きさおよび姿勢と作業対象物11−1(図5)の大きさおよび姿勢とは同じ(またはほぼ同じ)となる。
3Dモデル21−1(図9A)は、3Dモデル17−1と対応付けて作業情報記憶部310に予め記憶されている。大きさ・姿勢判断部305が特定した2Dモデル19−1が、3Dモデル17−1を用いて生成されているので、合成画像生成部307は、3Dモデル21−1を3Dモデル記憶部308から読み出す。
合成画像生成部307は、3Dモデル21−1(図9A)の姿勢および倍率を調整する(図12AのステップT4)。詳しく説明すると、合成画像生成部307は、3D輪郭線25−1(図13)の姿勢を基にして、3Dモデル21−1(図9A)を、作業対象物11−1(図5)と同じ方向から部品13−1(図6)を見た画像にする処理をする(例えば、作業対象物11−1を斜め45度で上から見た3D輪郭線25−1の場合、部品13−1を斜め45度で上から見た3Dモデル21−1にする)。合成画像生成部307は、3Dモデル21−1の倍率を3D輪郭線25−1の倍率に合わせる処理をする(3D輪郭線25−1の倍率が、例えば、3Dモデル17−1の1.1倍のとき、3Dモデル21−1を1.1倍にする。3D輪郭線25−1の倍率が、例えば、3Dモデル17−1の0.8倍のとき、3Dモデル21−1を0.8倍にする)。
合成画像生成部307(第2生成部)は、ステップT3で生成された3D輪郭線25−1(図13)と、ステップT4で調整された3Dモデル21−1(図9A)と、指示情報23−1(図10A)と、を用いて、合成画像27−1を生成する(図12AのステップT5)。図14は、合成画像27−1を示す斜視図である。合成画像27−1の生成について詳しく説明する。
指示情報23−1は、3Dモデル17−1と対応付けて作業情報記憶部310に予め記憶されている。ステップT2において、大きさ・姿勢判断部305が特定した2Dモデル19−1は、3Dモデル17−1を用いて生成されているので、合成画像生成部307は、指示情報23−1を作業情報記憶部310から読み出す。
3D輪郭線25−1(図13)は、3Dモデル21−1(図9A)が配置される位置を示す位置情報(これは、作業対象物11−1(図5)において、部品13−1(図6)が取り付けられる箇所の位置と対応する)を有する。合成画像生成部307は、3D輪郭線25−1(図13)と、その位置情報が示す位置に配置された3Dモデル21−1と、3Dモデル21−1の近くに配置された指示情報23−1と、を合成した合成画像27−1(図14)を生成する。
合成画像生成部307は、通信部303を用いて、合成画像27−1を送信する(図12AのステップT6)。
通信部124は、通信部303が送信した合成画像27−1を受信する(ステップS3)。制御処理部121は、通信部124が受信した合成画像27−1を、表示制御部104DRへ送る。表示制御部104DRは、合成画像27−1をディスプレイ104Aに表示される。ディスプレイ104に表示された合成画像27−1は、画像表示部104Bに表示され、HMD100を装着しているユーザの視界に、合成画像27−1が現れる(図12AのステップS4)。図15は、HMD100を装着しているユーザの視界に現れた合成画像27−1と、作業対象物11−1とを示す斜視図である。合成画像27−1は現実世界になく、作業対象物11−1は現実世界にある。HMD100は、作業対象物11−1の位置を認識していないので、作業対象物11−1と3D輪郭線25−1とがずれている。HMD100を装着しているユーザは、3D輪郭線25−1が作業対象物11−1の輪郭と重なるように、顔の向きを調整する。図16は、HMD100を装着しているユーザの視界から見て、3D輪郭線25−1と作業対象物11−1の輪郭とが重なった状態を示す斜視図である。ユーザは、指示情報23−1および3Dモデル21−1を見ることにより、作業対象物11−1に対する部品13−1(図6)の取り付けをスムーズに実行できる。
HMD100を装着しているユーザが、例えば、顔の向き変えたり、姿勢を変えたり、ユーザが装着しているHMD100がずれたりすると、作業対象物11−1と3D輪郭線25−1とがずれる(例えば、図15)。HMD100を装着しているユーザが、例えば、顔の向き変えることにより、作業対象物11−1と3D輪郭線25−1とがずれた場合、そのユーザは、3D輪郭線25−1が作業対象物11−1の輪郭と重なるように、顔の向きを変えることにより、図16に示す状態に戻すことができる。
図2を参照して、ユーザは、作業完了に割り当てられたジェスチャーをジェスチャー入力部105に入力する。これにより、制御処理部121は、表示制御部104DRを制御して、合成画像27−1の表示を消す(図12AのステップS5)。HMD100を装着したユーザの視線の先に、作業対象物11−2(図6)がある。HMD100は、シースルー型なので、ユーザは、作業対象物11−2を見ることができる。ユーザは、撮像命令に割り当てられたジェスチャーをジェスチャー入力部105に入力する。制御処理部121は、撮像部106を制御して、作業対象物11−2を含む第2画像を撮像する(図12BのステップS11)。以降のステップは、図12Aに示すステップS2〜ステップS5およびステップT1〜ステップT6と同様である。制御処理部121は、通信部124を用いて第2画像をサーバ300へ送信する(図12BのステップS12)。
通信部303は、通信部124が送信した第2画像を受信する(図12BのステップT11)。大きさ・姿勢判断部305は、第2画像から作業対象物11−2の画像を抽出する。大きさ・姿勢判断部305は、作業対象物11−2の画像(すなわち、作業対象物11−2の2次元画像)を、2Dモデル記憶部309に予め記憶されている複数の2Dモデル19(図11A、図11B)のそれぞれとパターンマッチングし、類似度が一番大きい2Dモデル19を特定する(図12BのステップT12)。作業対象物11−2(図6)は、3Dモデル17−2(図8B)と同じ形状を有するので、類似度が一番大きい2Dモデル19は、複数の2Dモデル19−2(図11B)の中から特定されることになる。
3D輪郭線生成部306は、ステップT12において、大きさ・姿勢判断部305が特定した2Dモデル19−2に対応づけられた大きさおよび姿勢を有する3Dモデル17−2の輪郭線を示す3D輪郭線25−2(図17)を生成する(図12BのステップT13)。図17は、3D輪郭線25−2を示す斜視図である。3D輪郭線25−2は、大きさ・姿勢判断部305が特定した2Dモデル19−2に対応づけられた大きさおよび姿勢を有する3Dモデル17−2の輪郭線なので、HMD100を装着したユーザから見た、3D輪郭線25−2の大きさおよび姿勢と作業対象物11−2(図6)の大きさおよび姿勢とは同じ(またはほぼ同じ)となる。このように、大きさ・姿勢判断部305は、複数の過程(第1過程、第2過程)のそれぞれにおいて、過程の開始前に撮像部106が撮像した作業対象物11−1,11−2の画像(図12AのステップS1、図12BのステップS11)と、3Dモデル記憶部308に記憶されている3Dモデル17−1,17−2と、を基にして、ユーザから見た作業対象物11−1,11−2の大きさおよび姿勢を判断する。
3Dモデル21−2(図9B)は、3Dモデル17−2と対応付けて作業情報記憶部310に予め記憶されている。大きさ・姿勢判断部305が特定した2Dモデル19−2が、3Dモデル17−2を用いて生成されているので、合成画像生成部307は、3Dモデル21−2を3Dモデル記憶部308から読み出す。
合成画像生成部307は、3Dモデル21−2(図9B)の姿勢および倍率を調整する(図12BのステップT14)。詳しく説明すると、合成画像生成部307は、3D輪郭線25−2(図17)の姿勢を基にして、3Dモデル21−2(図9B)を、作業対象物11−2(図6)と同じ方向から部品13−2(図7)を見た画像にする処理をする。合成画像生成部307は、3Dモデル21−2の倍率を3D輪郭線25−2の倍率に合わせる処理をする。
合成画像生成部307は、ステップT13で生成された3D輪郭線25−2(図17)と、ステップT14で調整された3Dモデル21−2(図9B)と、指示情報23−2(図10B)と、を用いて、合成画像27−2を生成する(図12BのステップT15)。図18は、合成画像27−2を示す斜視図である。合成画像27−2の生成について詳しく説明する。
指示情報23−2は、3Dモデル17−2と対応付けて作業情報記憶部310に予め記憶されている。ステップT12において、大きさ・姿勢判断部305が特定した2Dモデル19−2は、3Dモデル17−2を用いて生成されているので、合成画像生成部307は、指示情報23−2を作業情報記憶部310から読み出す。
3D輪郭線25−2(図17)は、3Dモデル21−2(図9B)が配置される位置を示す位置情報(これは、作業対象物11−2(図6)において、部品13−2(図7)が取り付けられる箇所の位置と対応する)を有する。合成画像生成部307は、3D輪郭線25−2(図17)と、その位置情報が示す位置に配置された3Dモデル21−2と、3Dモデル21−2の近くに配置された指示情報23−2と、を合成した合成画像27−2を生成する。
合成画像生成部307は、通信部303を用いて、合成画像27−2を送信する(図12BのステップT16)。
通信部124は、通信部303が送信した合成画像27−2を受信する(ステップS13)。制御処理部121は、通信部124が受信した合成画像27−2を、表示制御部104DRへ送る。表示制御部104DRは、合成画像27−2をディスプレイ104Aに表示される。ディスプレイ104に表示された合成画像27−2は、画像表示部104Bに表示され、HMD100を装着しているユーザの視界に、合成画像27−2が現れる(図12BのステップS14)。図19は、HMD100を装着しているユーザの視界に現れた合成画像27−2と、作業対象物11−2とを示す斜視図である。合成画像27−2は現実世界になく、作業対象物11−2は現実世界にある。HMD100は、作業対象物11−2の位置を認識していないので、作業対象物11−2と3D輪郭線25−2とがずれている。HMD100を装着しているユーザは、3D輪郭線25−2が作業対象物11−2の輪郭と重なるように、顔の向きを調整する。図20は、HMD100を装着しているユーザの視界から見て、3D輪郭線25−2と作業対象物11−2の輪郭とが重なった状態を示す斜視図である。ユーザは、指示情報23−2および3Dモデル21−2を見ることにより、作業対象物11−2に対する部品13−2(図7)の取り付けをスムーズに実行できる。
上述したように、HMD100を装着しているユーザが、顔の向き変えたり、姿勢を変えたり、ユーザが装着しているHMD100がずれたりすると、作業対象物11−2と3D輪郭線25−2とがずれる(例えば、図19)。HMD100を装着しているユーザが、例えば、顔の向き変えることにより、作業対象物11−2と3D輪郭線25−2とがずれた場合、そのユーザは、3D輪郭線25−2が作業対象物11−2の輪郭と重なるように、顔の向きを変えることにより、図20に示す状態に戻すことができる。
図2を参照して、ユーザは、作業完了に割り当てられたジェスチャーをジェスチャー入力部105に入力する。これにより、制御処理部121は、表示制御部104DRを制御して、合成画像27−2の表示を消す(図12BのステップS15)。HMD100を装着したユーザの視線の先に、完成品15(図7)がある。
実施形態の主な効果を説明する。3D輪郭線25−1(図13)は、HMD100を装着しているユーザから見た作業対象物11−1(図5)の大きさおよび姿勢を有する3Dモデル17−1(図8A)の輪郭を示す線である。よって、ユーザから見て、3D輪郭線25−1は、作業対象物11−1と大きさおよび姿勢が同じ(またはほぼ同じ)となる。合成画像27−1(図14)は、3D輪郭線25−1と作業情報20−1とを合成した画像である。ユーザは、視界に表示された合成画像27−1に含まれる3D輪郭線25−1を、作業対象物11−1の輪郭と重なるように、顔を動かす(図16)。これにより、作業対象物11−1の位置と作業情報20−1の表示位置とが正しい位置関係にすることができる。3D輪郭線25−2(図17)についても同様のことが言える。
3D輪郭線25−1,25−2で囲まれた領域は、シースルーである。このため、3D輪郭線25−1,25−2で囲まれた領域は、ユーザの視野の妨げとならないので、作業性を向上させることできる。
変形例を説明する。図21Aは、変形例を用いて生成された合成画像27−3の斜視図である。図21Bは、変形例を用いて生成された合成画像27−4の斜視図である。合成画像27−3が、図14に示す合成画像27−1と異なる点は、色マーク31が追加されていることである。合成画像27−4が、図18に示す合成画像27−2と異なる点は、色マーク31が追加されていることである。色マーク31は、3D輪郭線25内に配置されている。図21Aに示す色マーク31と図21Bに示す色マーク31とは、色、形、配置位置が全て同じである。
変形例は、例えば、作業対象物11の色が単一色である場合に適用できる。サーバ300(図2)は、色検出部(不図示)をさらに備える。色検出部は、図12AのステップT1で受信された第1画像(第1画像には、作業対象物11−1の画像が含まれる)を用いて、作業対象物11−1の色を検出する。HDD300d(図4)には、色検出部の機能を実現するためのプログラム、及び、各種データが格納されている。CPU300a(図4)は、このプログラムを、HDD300dから読み出してRAM300bに展開させ、展開されたプログラムを実行することによって、色検出部が実現される。
図12AのステップT5において、合成画像生成部307は、上記検出された色と同じ色の色マーク31を含む合成画像27−3を生成する。図12BのステップT15において、合成画像生成部307は、上記検出された色と同じ色の色マーク31を含む合成画像27−4を生成する。
色マーク31は、作業対象物11の色と同じ色を有する画像である。同じ形を有する作業対象物11が複数あり、これらの色が互いに異なることがある。例えば、第1の作業対象物11が赤色であり、第2の作業対象物11が黄色であり、第3の作業対象物11が青色である。このような作業対象物11が、HMD100を装着しているユーザの目の前に並べられている場合、合成画像27−1(図14)、合成画像27−2(図18)では、ユーザが作業を間違うおそれがある。変形例によれば、作業対象物11の色と同じ色の色マーク31を含む合成画像27−3,27−4となるので、上記場合でも、ユーザが作業を間違わないようにすることができる。なお、作業対象物11の色が単一色に限らず、例えば、作業対象物11の大部分(例えば、90%以上)が同じ色の場合にも適用できる。
なお、以上の実施形態では組み立て作業を支援する例を説明したが、組み立て作業以外の作業(例えば、分解作業)の支援に本発明のヘッドマウンドディスプレイを用いることもできる。
11−1,11−2 作業対象物
13−1,13−2 部品
15 完成品
17−1 作業対象物11−1の3Dモデル
17−2 作業対象物11−2の3Dモデル
19−1 作業対象物11−1の2Dモデル
19−2 作業対象物11−2の2Dモデル
20−1,20−2 作業情報
21−1 部品13−1の3Dモデル
21−2 部品13−2の3Dモデル
23−1,23−2 指示情報
25−1,25−2 3D輪郭線
27−1〜27−4 合成画像
31 色マーク
100 ヘッドマウントディスプレイ(HMD)
1000 作業支援システム
13−1,13−2 部品
15 完成品
17−1 作業対象物11−1の3Dモデル
17−2 作業対象物11−2の3Dモデル
19−1 作業対象物11−1の2Dモデル
19−2 作業対象物11−2の2Dモデル
20−1,20−2 作業情報
21−1 部品13−1の3Dモデル
21−2 部品13−2の3Dモデル
23−1,23−2 指示情報
25−1,25−2 3D輪郭線
27−1〜27−4 合成画像
31 色マーク
100 ヘッドマウントディスプレイ(HMD)
1000 作業支援システム
Claims (4)
- ヘッドマウントディスプレイを装着しているユーザの視線の先にある作業対象物を撮像する撮像部と、
前記作業対象物の3Dモデルを予め記憶する第1記憶部と、
前記撮像部が撮像した前記作業対象物の画像と前記3Dモデルとを基にして、前記ヘッドマウントディスプレイを装着している前記ユーザから見た前記作業対象物の大きさおよび姿勢を判断する判断部と、
前記判断部が判断した前記大きさおよび前記姿勢を有する前記3Dモデルを用いて、前記3Dモデルの輪郭を示す3D輪郭線を生成する第1生成部と、
前記作業対象物に対する作業内容を示す作業情報を予め記憶する第2記憶部と、
前記3D輪郭線と前記作業情報とを合成した合成画像を生成する第2生成部と、
前記合成画像を前記ユーザの視界に表示させる表示制御部と、を備える、ヘッドマウントディスプレイ。 - 前記第1記憶部は、複数の過程のそれぞれにおいて、前記ユーザが作業をする前記作業対象物の形に対応する前記3Dモデルを予め記憶しており、
前記判断部は、前記複数の過程のそれぞれにおいて、過程の開始前に前記撮像部が撮像した前記作業対象物の画像と、前記第1記憶部に記憶されている前記3Dモデルと、を基にして、前記ユーザから見た前記作業対象物の大きさおよび姿勢を判断する、請求項1に記載のヘッドマウントディスプレイ。 - 前記撮像部が撮像した前記作業対象物の画像を基にして、前記作業対象物の色を検出する色検出部をさらに備え、
前記第2生成部は、前記色検出部が検出した前記作業対象物の色と同じ色の色マークを含む前記合成画像を生成する、請求項1または2に記載のヘッドマウントディスプレイ。 - ヘッドマウントディスプレイと、前記ヘッドマウントディスプレイと通信可能なサーバと、を備える作業支援システムであって、
前記ヘッドマウントディスプレイに備えられ、前記ヘッドマウントディスプレイを装着している前記ユーザの視線の先にある作業対象物を撮像する撮像部と、
前記サーバに備えられ、前記作業対象物の3Dモデルを予め記憶する第1記憶部と、
前記サーバに備えられ、前記撮像部が撮像した前記作業対象物の画像と前記3Dモデルとを基にして、前記ヘッドマウントディスプレイを装着している前記ユーザから見た前記作業対象物の大きさおよび姿勢を判断する判断部と、
前記サーバに備えられ、前記判断部が判断した前記大きさおよび前記姿勢を有する前記3Dモデルを用いて、前記3Dモデルの輪郭を示す3D輪郭線を生成する第1生成部と、
前記サーバに備えられ、前記作業対象物に対する作業内容を示す作業情報を予め記憶する第2記憶部と、
前記サーバに備えられ、前記3D輪郭線と前記作業情報とを合成した合成画像を生成する第2生成部と、
前記ヘッドマウントディスプレイに備えられ、前記合成画像を前記ユーザの視界に表示させる表示制御部と、を備える、作業支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017111387A JP2018206103A (ja) | 2017-06-06 | 2017-06-06 | ヘッドマウントディスプレイおよび作業支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017111387A JP2018206103A (ja) | 2017-06-06 | 2017-06-06 | ヘッドマウントディスプレイおよび作業支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018206103A true JP2018206103A (ja) | 2018-12-27 |
Family
ID=64957227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017111387A Withdrawn JP2018206103A (ja) | 2017-06-06 | 2017-06-06 | ヘッドマウントディスプレイおよび作業支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018206103A (ja) |
-
2017
- 2017-06-06 JP JP2017111387A patent/JP2018206103A/ja not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11073901B2 (en) | Display device, control method for display device, and computer program | |
EP3469457B1 (en) | Modular extension of inertial controller for six dof mixed reality input | |
US11557134B2 (en) | Methods and systems for training an object detection algorithm using synthetic images | |
US9069382B1 (en) | Using visual layers to aid in initiating a visual search | |
US20140168261A1 (en) | Direct interaction system mixed reality environments | |
US10782531B2 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
CN105009039A (zh) | 使用imu的直接全息图操纵 | |
JP2017187667A (ja) | 頭部装着型表示装置およびコンピュータープログラム | |
JP2016082462A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2019109850A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
JP2018082363A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2017108370A (ja) | 頭部装着型表示装置およびコンピュータープログラム | |
US9298256B1 (en) | Visual completion | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
US20220155881A1 (en) | Sensing movement of a hand-held controller | |
JP2006276748A (ja) | 情報呈示装置、情報呈示方法、及びコンピュータプログラム | |
JP7501044B2 (ja) | 表示システム、情報処理装置及び表示システムの表示制御方法 | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP6535699B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2018206103A (ja) | ヘッドマウントディスプレイおよび作業支援システム | |
US11131855B2 (en) | Display system and method for controlling display system | |
US20170285765A1 (en) | Input apparatus, input method, and computer program | |
JP2019053644A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2017134630A (ja) | 表示装置、表示装置の制御方法、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200930 |