JPWO2020217591A1 - 治具の配置を示す映像処理システム - Google Patents

治具の配置を示す映像処理システム Download PDF

Info

Publication number
JPWO2020217591A1
JPWO2020217591A1 JP2020561934A JP2020561934A JPWO2020217591A1 JP WO2020217591 A1 JPWO2020217591 A1 JP WO2020217591A1 JP 2020561934 A JP2020561934 A JP 2020561934A JP 2020561934 A JP2020561934 A JP 2020561934A JP WO2020217591 A1 JPWO2020217591 A1 JP WO2020217591A1
Authority
JP
Japan
Prior art keywords
arrangement
jig
display
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020561934A
Other languages
English (en)
Other versions
JP7066013B2 (ja
Inventor
健生 山▲崎▼
健生 山▲崎▼
一 宮村
一 宮村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2020217591A1 publication Critical patent/JPWO2020217591A1/ja
Application granted granted Critical
Publication of JP7066013B2 publication Critical patent/JP7066013B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

映像表示システム(100)は、構造体(110)に対する部材の取付作業に用いる映像表示システムであって、構造体(110)に対して部材の位置決めを行う治具の配置情報を格納している格納部(105)と、実空間に配置された構造体(110)の配置を検出する構造体配置検出部(152)と、格納部(105)に格納されている治具(120)の配置情報と構造体配置検出部(152)の検出結果とに基づいて、実空間に配置された構造体(110)に対して治具の配置を示す表示処理、を行う制御部(107)と、を備える。

Description

本開示は、ユーザの作業を支援する映像を表示する映像表示システムに関する。
実空間に配置された実物体に対して仮想情報をコンピュータグラフィック等によって表示する、複合現実感(Mixed Reality;以下、「MR」という)に関する技術が知られている(例えば、特許文献1参照)。特許文献1は、実物体である建築模型を撮像した実映像と仮想映像を合成して表示する技術について記載している。
特開2006−18444号公報
MR技術の利用方法として、HMD(Head Mount Display)等(以下、「MRデバイス」という)を介して、ユーザの作業を支援する仮想映像を実物体に対応させてユーザに提供することが考えられる。例えば、鋼材の溶接作業では、図面の読み解き、鋼材への罫書き、罫書きの確認といった作業が必要である。複雑な図面では熟練技師でも理解に時間を要し、溶接部分が多ければ単純ミスによる手戻りが発生する。このため、従来の鋼材の溶接作業には、熟練の技術を要していた。そこで、MRデバイスを利用して、取付部材を示す仮想物体を実物の鋼材に重畳表示することが考えられる。
しかしながら、取付部材を示す仮想物体を鋼材などの構造体に重畳表示させただけでは、取付作業の困難性が改善されない場合があった。例えば、寸法又は重量が比較的大きい取付部材を構造体に対して傾斜させた状態で、取付部材と構造体との間において溶接などの取付作業を行う場合がある。このような場合には、仮想物体の表示に合わせて取付部材を配置した状態を保ちながら上記取付作業を行うことは困難であった。
本開示は、上記の問題に鑑みてなされたものであり、構造体に対する部材の取付作業を容易に行うことができる映像表示システムを提供することを目的とする。
上記の目的を達成するために、本開示に係る映像表示システムは、構造体に対する部材の取付作業に用いる映像表示システムであって、構造体に対して部材の位置決めを行う治具の配置情報を格納している格納部と、実空間に配置された構造体の配置を検出する構造体配置検出部と、格納部に格納されている治具の配置情報と構造体配置検出部の検出結果とに基づいて、実空間に配置された構造体に対して治具の配置を示す表示処理、を行う制御部と、を備える。
本開示に係る映像表示システムでは、構造体に対して部材の位置決めを行う治具の配置情報が格納されており、実空間に配置された構造体に対して上記治具の配置を示す表示処理が行われる。ユーザは、治具の配置を示す表示処理にしたがって容易に、当該治具を配置することができる。この結果、当該治具によって構造体に対して上記部材を位置決めし、構造体に対する部材の取付作業を容易に行うことができる。
本開示によれば、構造体に対する部材の取付作業を容易に行うことができる映像表示システムを提供することができる。
一の実施形態に係る映像表示システムの機能を説明するための図である。 構造体と映像表示システムによる表示とを説明するための図である。 取付部材の一例を説明するための図である。 映像表示システムと治具とを用いて取付部材を取り付けた状態を示す図である。 取付作業における治具の配置を示す図である。 本実施形態の変形例に係る取付作業における治具の配置を示す図である。 映像表示システムによる治具の位置ズレ検出を説明するための図である。 本実施形態の変形例に係る映像表示システムによる治具の位置ズレ検出を説明するための図である。 映像表示システムによる表示選択を説明するための図である。 映像表示システムによる表示選択を説明するための図である。 映像表示システムによって行われる処理の一例を示すフローチャートである。 制御部によって行われる表示処理の一例を示すフローチャートである。 一の実施形態に係る映像表示システムのハードウェア構成を示す図である。
以下、図面と共に本開示に係る映像表示システムの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
[映像表示システムの概要]
まず、本実施形態に係る映像表示システムについて説明する。図1は、映像表示システムのブロック図を示す。映像表示システム100は、実空間(ワールド座標系)に対応付けられたCG(コンピュータグラフィックス)による仮想物体を表示する。映像表示システム100は、例えば、ユーザに装着されるHMDを含む情報処理端末などによって実現される。映像表示システム100は、タブレット端末及びプロジェクションマッピングなどであってもよい。以下では、映像表示システム100がMR技術に用いられるHMDであることを例に説明する。映像表示システム100は、ハーフミラーを用いて実空間の実物体と仮想物体とをユーザに視認させる光学シースルー方式を採用している。映像表示システム100は、実空間の映像に仮想物体を融合してユーザに視認させるビデオシースルー方式を採用してもよい。本実施形態では、映像表示システム100は、ビデオシースルー方式である。
映像表示システム100は、ユーザの目線と同様の撮像方向等で撮像を行う。映像表示システム100は、撮像を行った画像に仮想物体を重畳して表示する。ユーザは、この表示を見ることで、実空間に配置された実体物の配置に応じた、現実にはない仮想物体を見ることができる。「配置」は、所定の3次元座標軸上の座標及び3次元座標軸の各軸周りの回転(3次元座標上の向き)によって規定される6自由度の状態を意味する。
映像表示システム100は、3次元座標である仮想空間(スクリーン座標系)を用いて仮想物体を表示する。映像表示システム100は、仮想空間上の予め設定された位置に仮想物体を配置しておき、仮想空間と実空間との対応関係を算出する。仮想物体の仮想空間上の配置を「表示配置」という。以下の説明では、仮想空間において仮想物体の位置を示す座標軸を「仮想座標軸α」という。映像表示システム100は、実空間での撮像位置及び撮像方向に対応する仮想空間上での位置及び方向から見た画像を仮想物体の表示とする。即ち、仮想的なユーザの視線から、仮想空間上の仮想物体を見た画像を表示する。上記の仮想物体の表示は、従来のMR技術を用いて実施することができる。映像表示システム100は、ユーザの移動を検出して、ユーザの移動に応じた視線の変化にあわせるように当該移動に応じて表示処理を変化させる。
映像表示システム100は、実空間に配置された構造体110に対する部材(以下、「取付部材」という)の取付作業に用いられる。図2は、映像表示システム100がユーザに視認させる表示を示している。図3は、映像表示システム100を用いて取付部材を取り付けた状態を示している。映像表示システム100は、実空間に配置された実物体である構造体110の配置に対応してディスプレイに治具120の配置を示す仮想物体を表示する。換言すれば、映像表示システム100は、実空間に配置された構造体110に対して治具120の配置を示す表示処理を行う。本実施形態では、構造体110は、長尺状のH鋼材である。
治具120は、構造体110に対して取付部材を位置決めする部材である。ユーザは、例えば、治具120によって取付部材を構造体110に対して位置決めした状態で、取付部材と構造体との間における溶接などの取付作業を行う。本実施形態では、上述した仮想物体には、実空間の構造体110を示す情報、構造体110に取り付ける予定の取付部材を示す情報、及び、基準位置から治具120を配置する位置までの距離を示す情報が含まれている。基準位置は、構造体110の端部110aである。
本実施形態では、映像表示システム100は、図2に示されるように、構造体110に取り付ける予定の取付部材を示す仮想取付部材201,202,203,204、及び、基準位置から治具120を配置する位置までの距離を示す情報206,207を表示する。映像表示システム100は、ユーザに対して、治具120の配置を示す仮想物体が実空間に配置された構造体110に重なって視認されるように表示し、構造体110に対して治具120を取り付けるべき位置を示す。図2に示されている仮想取付部材201は、取付部材131に対応している。仮想取付部材201が表示される配置は、取付部材131を取り付ける予定の配置である。図2に示されている仮想取付部材203は、取付部材132に対応している。仮想取付部材203が表示される配置は、取付部材132を取り付ける予定の配置である。
本実施形態では、映像表示システム100は、基準位置から治具120を配置する位置までの距離として、構造体110の延在方向における端部110aから取付部材までの最短距離と、構造体110の延在方向における端部110aから取付部材までの最長距離とを表示する。図2及び図3に示されているように、映像表示システム100によって、構造体110の延在方向における端部110aから取付部材までの最短距離は260mmであることが分かり、構造体110の延在方向における端部110aから取付部材までの最長距離は310mmであることが分かる。
映像表示システム100は、実空間において、構造体110に対して配置された基準マーカ125によって基準位置を検出する。基準マーカ125は、作業を行う前に構造体110と予め決められた配置関係で配置される。本実施形態では、基準マーカ125は、構造体110の面板112上において、構造体110の端部110aに沿って設けられている。基準マーカ125は、映像表示システム100が画像認識によって実空間における基準マーカ125の3次元配置を識別可能な特徴点を有する。例えば、基準マーカ125は、このような特徴点を有する図形等(例えば、2次元コード)を含んでいてもよい。基準マーカ125は、映像表示システム100が実空間における基準マーカ125の3次元配置を識別可能であれば、この形態に限定されない。例えば、基準マーカ125の上記特徴点は、基準マーカ125の色又は明滅によって示されてもよい。磁気信号又は音波信号などを用いる3次元位置の識別手法によって、基準マーカ125の3次元位置が識別されてもよい。
図4は、取付部材が構造体110に取り付けられた状態の一例をしている。図4では、取付部材が構造体110に対して傾斜して取り付けられた状態の三面図が示されている。図2から図4に示されているように、構造体110は、長尺方向に延在する3つの面板111,112,113が一体に接続されている構成を有している。面板111,112,113は、いずれも矩形状を呈している。
面板111は、互いに対向する主面111a,111bを有する。面板112は、互いに対向する主面112a,112bを有する。面板113は、互いに対向する主面113a,113bを有する。各面板111,112,113の主面111a,111b,112a,112b,113a,113bは、長尺方向に延在すると共に取付部材が接する。面板111は、面板112,113に対して垂直となるように接続されている。面板111の一対の長辺に、それぞれ、面板112の主面112aの中央部分と面板113の主面113aの中央部分とが接続されている。
図4は、取付部材131が取り付けられた構造体110について、面板112の主面112bに直交する方向から見た外観、面板111の主面111aに直交する方向から見た外観、構造体110の延在方向から見た外観の関係性を示している。図4に示されているように、取付部材131は、平面視で台形状であり、4つの角部131a,131b,131c,131dを有している。図4は、同一の角部を一点鎖線で接続して示している。
図4に示されているように、取付部材131は、面板111の主面111aに対して傾斜しつつ、面板112の主面112a及び面板113の主面113aに対しても傾斜している。角部131bと角部131cとを接続する辺は、構造体110の主面111aに接している。角部131aと角部131bとを接続する辺は、構造体110の主面112aに接している。角部131cと角部131dとを接続する辺は、構造体110の主面113aに接している。この場合、構造体110の延在方向において、角部131aの位置は、構造体110の端部110aから最短距離の位置である。構造体110の延在方向において、角部131cの位置は構造体110の端部110aから最長距離の位置である。
図5は、構造体110と治具120と映像表示システム100の表示との配置関係を示す部分拡大図である。図5の(a)は、面板112の主面に直交する方向から見た外観を示している。図5の(b)は、面板111の主面111aに直交する方向から見た外観を示している。仮想取付部材201は、取付部材131と同一の形状を有しており、4つの角部131a,131b,131c,131dを有する。
図3及び図5に示されているように、治具120は、第一治具121と第二治具122とを含む。第一治具121は、平面121aを有する。第二治具122は、平面122aを有する。本実施形態では、第一治具121の平面121a及び第二治具122の平面122aは、主面111a及び主面113aに垂直に配置される。第一治具121及び第二治具122は、それぞれ、直方体形状を有している。第一治具121及び第二治具122は、それぞれ、少なくとも構造体110の主面111a及び主面113aに接するように配置される。
映像表示システム100の表示に基づいて、第一治具121の平面121aは、構造体110の延在方向における端部110aから取付部材131までの最短距離の位置に配置される。映像表示システム100の表示に基づいて、第二治具122の平面122aは、構造体110の延在方向における端部110aから取付部材までの最長距離の位置に配置される。
映像表示システム100は、基準位置から治具120を配置する位置までの距離を示す情報206,207の表示に加えて、仮想取付部材201も表示する。第一治具121は、仮想取付部材201のうち、構造体110の延在方向において端部110aから最短距離に位置する部分に接するように配置される。第二治具122は、仮想取付部材201のうち、構造体110の延在方向において端部110aから最長距離に位置する部分に接するように配置される。本実施形態では、第一治具121は平面121aが仮想取付部材201の角部131aに接するように配置され、第二治具122は平面122aが仮想取付部材201の角部131dに接するように配置される。この際、第一治具121の平面121aと第二治具122の平面122aとは、互いに対向する。これによって、治具120は、構造体110の延在方向における取付部材131の位置と、構造体110の主面111aに対する取付部材131の傾斜角度と、主面111aに直交する軸に対する取付部材131の回転角度とを制限するように配置される。例えば、取付部材131が、構造体110の主面111aと第一治具121の平面121aと第二治具122の平面122aとに当接するように配置することで、所望の配置で取付部材131が位置決めされる。
図6は、本実施形態の変形例に係る取付作業における治具の配置を示す図である。本変形例では、面板111の主面111aと交差する方向における長さが、取付部材131よりも長い取付部材135を構造体110に取り付ける。取付部材135もまた、4つの角部131a,131b,131c,131dを有する。主面111aに交差する方向において、取付部材135の長さは治具120の長さよりも大きい。この場合、平面122aは角部131dに接するが、平面121aは角部131aに接し得ない。この場合、第一治具121は、平面121aが角部131aと角部131bとを接続する辺に接するように配置される。映像表示システム100は、角部131aと角部131bとを接続する辺のうち、第一治具121の平面121aが接する部分を示す。換言すれば、映像表示システム100は、第一治具121の平面121aの配置を示す情報の表示として、端部110aから、第一治具121と第二治具122とに挟まれる領域内の取付部材135までの構造体110の延在方向における最短距離の位置を表示する。映像表示システム100は、第二治具122の平面122aの配置を示す情報の表示として、端部110aから、第一治具121と第二治具122とに挟まれる領域内の取付部材までの構造体110の延在方向における最長距離の位置を表示する。
[映像表示システムの構成]
映像表示システム100は、図1に示されているように、撮像部101、慣性計測部102、表示部103、環境情報検出部104、格納部105、操作検出部106、及び制御部107を備える。撮像部101、慣性計測部102、表示部103、環境情報検出部104、格納部105、操作検出部106、及び制御部107は、一つの筐体に収容されていてもよいし、複数の筐体に分けて収容されていてもよい。複数の筐体に収容されている場合には、有線で接続されてもよいし、無線で接続されてもよい。
映像表示システム100のうち、撮像部101及び表示部103の少なくとも一つは、携帯可能である。映像表示システム100は、撮像部101を備えていなくてもよい。撮像部101を携帯せずに表示部103を携帯する場合には、表示部103と慣性計測部102とが一つの筐体に収容されている。例えば、映像表示システム100は、HMDを用いる場合だけでなく、撮像部101が動作しないタブレットなどをユーザが携帯する場合、及び、ユーザが手元の表示部103で確認しながら遠隔で撮像部101を有する端末の動きを操作する場合にも利用可能である。本実施形態では、撮像部101、慣性計測部102、及び表示部103が一つの筐体に収容され、当該筐体がユーザの頭に固定されるHMDが用いられる場合を主として説明する。
撮像部101は、実空間を撮像し、撮像した画像を逐次、環境情報検出部104へ送信する。本実施形態では、撮像部101はユーザの頭に固定され、ユーザの頭の動きに合わせて撮像部101の位置及び姿勢が変動する。撮像部101の位置は、撮像部101の座標位置である。撮像部101の姿勢は、3次元座標の各軸周りの回転(3次元座標上の向き)である。撮像部101は、深度カメラ、及びRGBカメラ等の複数のカメラから構成されている。撮像部101は、ユーザの視線方向を撮像するフロントカメラだけでなく、ユーザの側方などを撮像する環境カメラも含む。
慣性計測部102は、撮像部101又は表示部103に働く外力を計測し、計測結果を逐次、環境情報検出部104へ送信する。本実施形態では、慣性計測部102は、ユーザの頭に固定された、加速度センサ、ジャイロセンサ、及び方位センサ等によって構成されている。
表示部103は、表示を行うディスプレイを含んでいる。表示部103は、撮像部101又は表示部103の位置及び姿勢に応じて、仮想物体含む仮想映像を表示する。本実施形態では、表示部103はユーザが仮想物体を適切に視認できる状態でユーザの頭に固定される。表示部103は、ユーザの頭の動きに合わせて表示部103の位置及び姿勢が変動する。表示部103の位置は、表示部103の座標位置である。表示部103の姿勢は、3次元座標の各軸周りの回転(3次元座標上の向き)である。本実施形態では、表示部103は、後述する制御部107からの指示に応じて、実空間の構造体110を示す表示、構造体110に取り付ける予定の取付部材を示す表示、及び、基準位置から治具120を配置する位置までの距離を示す情報の表示を行う。
環境情報検出部104は、撮像部101で撮像された画像及び慣性計測部102の計測結果の少なくとも一方に基づいて、種々の情報を検出する。映像表示システム100は、慣性計測部102を備えていなくてもよい。この場合、映像表示システム100は、撮像部101で撮像される画像に基づいて、環境情報検出部104で種々の処理を行う。映像表示システム100が撮像部101を備えていない場合、映像表示システム100は、慣性計測部102に基づいて、環境情報検出部104で種々の処理を行う。環境情報検出部104は、基準位置検出部151と、構造体配置検出部152と、ユーザ位置検出部153と、視線方向検出部154と、ディスプレイ配置検出部155と、治具配置検出部156とを有する。
基準位置検出部151は、仮想座標軸αの原点Nを配置する基準位置を検出する。本実施形態では、基準位置検出部151は、撮像部101で撮像された画像から、実空間における基準マーカ125の3次元配置を識別可能な特徴点を検出する。基準位置検出部151は、検出された上記特徴点から実空間における基準位置を検出する。例えば、構造体110の端部110aに沿って基準マーカ125が配置された状態において、基準位置検出部151は、基準マーカ125の特徴点から面板112における端部110aの中央を基準位置として検出する。基準位置検出部151による基準位置の検出結果は、例えば、撮像部101又はディスプレイからの基準位置の相対位置である。
基準位置検出部151は、基準マーカ125でなく、撮像部101によって撮像された画像における構造体110のエッジの配置、又は、撮像部101によって撮像された画像における構造体110の周辺環境などから基準位置を検出してもよい。基準位置検出部151は、実空間における基準位置を示す信号を、無線又は有線で別途取得してもよい。基準位置検出部151による基準位置の検出結果は、撮像部101で撮像された画像上の位置であってもよい。
構造体配置検出部152は、実空間に配置された構造体110の配置を検出する。本実施形態では、構造体配置検出部152は、基準位置検出部151によって検出された基準位置と、構造体110の向きを特定する他の特徴点とに基づいて、構造体110の配置を検出する。構造体110の向きを特定する他の特徴点は、基準マーカ125の向き、基準マーカ125とは別に構造体110に設けられたマーカの配置、構造体110のエッジの配置、又は構造体110の周辺環境でもよい。例えば、構造体配置検出部152は、撮像部101で撮像された画像から、実空間における構造体110のエッジの配置を検出する。
構造体配置検出部152による構造体110の配置の検出結果は、例えば、撮像部101又はディスプレイに対する構造体110の相対配置である。構造体配置検出部152は、実空間における構造体110の配置を示す信号を、無線又は有線で別途取得してもよい。構造体配置検出部152による構造体110の配置の検出結果は、撮像部101で撮像された画像上の配置であってもよい。
ユーザ位置検出部153は、取付作業を行うユーザの位置を検出する。本実施形態では、ユーザ位置検出部153は、基準位置に対する撮像部101の相対位置をユーザの位置として検出する。例えば、ユーザ位置検出部153は、撮像部101で撮像された画像から、周辺環境の特徴点を検出する。ユーザ位置検出部153は、検出された上記特徴点から実空間における撮像部101の位置を検出する。ユーザ位置検出部153は、撮像部101で撮像された画像と基準位置の検出結果と慣性計測部102の計測結果とに基づいて、撮像部101の位置を検出してもよい。
ユーザ位置検出部153は、基準位置に対する表示部103のディスプレイの相対位置をユーザの位置として検出してもよい。ユーザ位置検出部153は、基準位置に対する撮像部101の相対位置をディスプレイの位置として検出してもよい。ユーザ位置検出部153は、撮像部101で撮像された画像と基準位置の検出結果と慣性計測部102の計測結果とに基づいて、ディスプレイの位置を検出してもよい。ユーザ位置検出部153は、撮像部101で撮像された画像を用いずに、ディスプレイの位置を検出してもよい。ユーザ位置検出部153は、実空間における撮像部101又はディスプレイの位置を示す信号を、例えば外部の撮像部などから別途取得してもよい。
ユーザ位置検出部153は、基準位置に対するユーザの位置でなくとも、構造体110の任意の位置に対するユーザの位置を検出してもよい。ユーザ位置検出部153は、治具120に対するユーザの位置を検出してもよい。
視線方向検出部154は、取付作業を行うユーザの視線方向を検出する。なお、「視線方向」とは、フロントカメラが向いている方向であってもよいし、撮像された画像の中心であってもよいし、ディスプレイが向いている方向であってもよいし、ユーザの眼球の向きから計算した方向であってもよい。本実施形態では、視線方向検出部154は、基準位置に対する撮像部101の姿勢を視線方向として検出する。例えば、視線方向検出部154は、撮像部101で撮像された画像から、周辺環境の特徴点を検出する。視線方向検出部154は、検出された上記特徴点から実空間における撮像部101の姿勢を検出する。視線方向検出部154は、撮像部101で撮像された画像と基準位置の検出結果と慣性計測部102の計測結果とに基づいて、撮像部101の姿勢を検出してもよい。
視線方向検出部154は、基準位置に対する表示部103のディスプレイの姿勢を視線方向として検出してもよい。視線方向検出部154は、基準位置に対する撮像部101の姿勢をディスプレイの姿勢として検出してもよい。視線方向検出部154は、撮像部101で撮像された画像と基準位置の検出結果と慣性計測部102の計測結果とに基づいて、ディスプレイの姿勢を検出してもよい。視線方向検出部154は、撮像部101で撮像された画像を用いずに、ディスプレイの姿勢を検出してもよい。視線方向検出部154は、実空間における撮像部101又はディスプレイの姿勢を示す信号を、例えば外部に撮像部などから別途取得してもよい。
ディスプレイ配置検出部155は、ディスプレイの配置を検出する。本実施形態では、ディスプレイ配置検出部155は、ユーザ位置検出部153の検出結果と視線方向検出部154の検出結果とから、基準位置に対するディスプレイの配置を検出する。
治具配置検出部156は、実空間に配置された治具120の配置を検出する。本実施形態では、治具配置検出部156は、撮像部101で撮像された画像から、第一治具121及び第二治具122のそれぞれが有する特徴点を検出する。図7に示されているように、第一治具121及び第二治具122のそれぞれが有する特徴点は、例えば、第一治具121及び第二治具122のそれぞれに設けられたマーカ140であってもよい。本実施形態では、マーカ140にQRコード(登録商標)が付されている。治具配置検出部156は、例えば、撮像部101で撮像された画像からマーカ140のQRコードを認識して、第一治具121及び第二治具122の配置を演算する。マーカ140は、QRコードでなく、他の特徴的な図柄を有していてもよい。治具配置検出部156は、第一治具121及び第二治具122から色、明滅又は電磁気情報などを検出して、第一治具121及び第二治具のそれぞれの配置を検出してもよい。
図8に示されているように、治具配置検出部156は、構造体110の両端部に配置されたレーザー距離計測装置171,172から取得した情報に基づいて、第一治具121及び第二治具のそれぞれの配置を検出してもよい。例えば、レーザー距離計測装置171は、構造体110の一端部からの第一治具121の端部までの距離を治具配置検出部156に送信する。治具配置検出部156は、構造体110の一端部からの第一治具121の端部までの距離から第一治具121の配置を検出する。レーザー距離計測装置172は、構造体110の他端部からの第二治具122の端部までの距離を治具配置検出部156に送信する。治具配置検出部156は、構造体110の他端部からの第二治具122の端部までの距離から第二治具122の配置を検出する。治具配置検出部156は、予め取得された構造体110の全長と第一治具121及び第二治具122の厚さとを用いて、第一治具121及び第二治具のそれぞれの配置を検出してもよい。映像表示システム100は、レーザー距離計測装置171,172を含んでいてもよい。
格納部105は、仮想物体の表示に必要な各種情報(CGデータ)を予め格納している。格納部105は、構造体110に対する治具120の配置情報を格納している。本実施形態では、治具120の配置情報は、平面121aと平面122aとが取付部材に接する第一治具121及び第二治具122の配置情報を含む。第一治具121及び第二治具122の配置情報は、構造体110の延在方向における取付部材の位置と、構造体110の主面111aに対する取付部材の傾斜角度と、主面111aに直交する軸に対する取付部材の回転角度とを制限する治具の配置情報を含む。
例えば、格納部105は、仮想空間における仮想座標軸αに予め対応付けられた仮想取付部材201,202,203,204の表示配置、及び、基準位置から治具120を配置する位置までの距離を示す情報206,207を予め格納している。格納部105は、仮想取付部材201,202,203,204の表示配置、及び、治具120を配置する位置の仮想座標軸α上の座標を格納している。仮想座標軸αを実空間に対応付けることで、実空間での撮像部101の位置及び姿勢に対応する仮想取付部材201,202,203,204の表示配置、及び治具120を配置する位置が決定される。
格納部105、予め定められた、実空間に配置された基準マーカ125と、仮想座標軸αとの配置関係も予め格納している。本実施形態では、基準マーカ125の実空間上の基準点Mの位置と、仮想座標軸αの原点Nを配置する基準位置とが対応付けられている。すなわち、実空間における基準マーカ125の配置と、仮想座標軸αの原点Nとが対応付けられている。
操作検出部106は、ユーザの操作を検出する。例えば、映像表示システム100のタッチパネルディスプレイにおいて、ユーザがタッチした位置を検出する。操作検出部106は、検出された情報を制御部107へ逐次送信する。例えば、操作検出部106は、ユーザの操作に応じて、選択された仮想取付部材201,202,203,204を示す信号を制御部107に送信する。操作検出部106によって検出されるユーザの操作は、ハンドジャスチャー、瞬き、又はボタン入力であってもよい。
制御部107は、環境情報検出部104の検出結果、操作検出部106の検出結果、及び、格納部105に格納されている情報に基づいて、種々の制御を行う。制御部107は、基準配置設定部157、表示制御部158と、部材判断部159とを有している。
基準配置設定部157は、仮想物体の表示配置を規定する仮想座標軸αと、ユーザ位置検出部153及び視線方向検出部154で検出された撮像部101又はディスプレイの位置及び姿勢との関係を設定する。本実施形態では、基準配置設定部157は、構造体配置検出部152で検出された構造体110の配置にしたがって、実空間に仮想座標軸αを対応付ける。換言すれば、基準配置設定部157は、構造体配置検出部152で検出された検出結果に基づいて、仮想座標軸αの原点Nを基準位置に配置すると共に、実空間における仮想座標軸αの方向を設定する。
表示制御部158は、格納部105に格納されている治具120の配置情報と構造体配置検出部152の検出結果とに基づいて、実空間に配置された構造体110に対して治具120の配置を示す表示処理を行う。例えば、表示制御部158は、複数の部材の配置を示す情報の表示を表示部103に指示し、図2に示されているように、実空間に配置された構造体110に対して仮想取付部材201,202,203,204を表示部103に表示させる。本実施形態では、表示制御部158は、格納部105から治具120の配置情報を取得する。表示制御部158は、取得された治具120の配置情報に応じて、基準配置設定部157において実空間に対応付けられた仮想座標軸αに対して、仮想取付部材201,202,203,204の表示配置、及び、基準位置から治具120を配置する位置までの距離を示す情報206,207の配置を対応付ける。この結果、仮想取付部材201,202,203,204の表示配置、及び、基準位置から治具120を配置する位置までの距離を示す情報206,207の配置が、基準位置に対応付けられる。本実施形態では、表示制御部158は、ユーザの位置及び視線方向に応じて、基準位置に対応付けられた、仮想取付部材201,202,203,204、及び、治具120を配置する位置までの距離を示す情報206,207を表示部103に表示させる。
表示制御部158は、ディスプレイ配置検出部155で検出されたディスプレイの配置に応じて、治具120の配置を示す情報の表示配置を変更してもよい。例えば、ユーザがディスプレイの配置を変更した場合には、表示制御部158は、当該変更に応じて、ディスプレイ上における、構造体110の表示は位置、仮想取付部材201,202,203,204の表示配置、及び、治具120を配置する位置までの距離を示す情報206,207の表示配置を変更させてもよい。
表示制御部158は、治具配置検出部156で検出された治具120の配置と格納部105に格納されている治具120の配置情報とに基づいて、治具120の位置ズレを示す情報を表示させる。例えば、表示制御部158は、治具配置検出部156で検出された治具120の配置が格納部105に格納されている治具120の配置情報から許容誤差以上ズレている場合に、当該ズレの発生を示す表示処理を表示部103に行う。例えば、表示制御部158は、上記ズレが発生していると判断した場合に、図7に示されているように、ズレが発生していることを示す情報160を表示部103に表示させる。表示制御部158は、上記ズレが発生していると判断した場合に、仮想取付部材の色を変えてもよい。
部材判断部159は、格納部105に格納されている複数の仮想取付部材に対応する複数の取付部材から、ユーザが取付作業を行う取付部材を判断する。例えば、部材判断部159は、例えば、操作検出部106の検出結果、構造体110に対するユーザの位置、及び、ユーザの視線方向のうち少なくとも一つに基づいて、上記複数の取付部材の少なくとも一つの取付部材を、ユーザが取付作業を行う取付部材として判断する。表示制御部158は、部材判断部159で判断された取付部材に対応する治具120の配置を示す情報を、ユーザが治具120の配置に用いる情報として判断し、それ以外の取付部材に対応する治具120の配置を示す情報について表示処理を行う。例えば、表示制御部158は、部材判断部159によって仮想取付部材201も対応する取付部材131がユーザが取付作業を行う取付部材として判断された場合、残りの取付部材に対応する治具120の配置を示す情報の非表示を表示部103に指示する。残りの治具120に対する表示処理は、非表示に限定されず、半透明表示、点滅表示、輪郭線表示、色の変更、及び表示濃度の変更など表示に変化を与えることを含む。残りの治具120に対して、当該治具120の距離を示す情報のみに対して表示に変化が与えてもよい。
表示制御部158は、部材判断部159で判断された取付部材に対応する治具120の配置を示す情報に対して、表示に変化を与えてもよい。図9では、仮想取付部材202,203,204に関する情報が非表示にされている状態を示している。表示制御部158は、非表示の状態から、部材判断部159で判断された取付部材に対応する治具120の配置を示す情報を表示部103に表示させてもよい。
例えば、部材判断部159は、操作検出部106の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、複数の取付部材のうち、ユーザの操作に対応する取付部材を判断する。表示制御部158は、判断された取付部材に対応する治具120の配置を示す情報の表示処理を行う。例えば、ユーザが仮想取付部材201をタッチした場合、部材判断部159は、ユーザが操作した仮想取付部材201に対応する取付部材131を、ユーザが取付作業を行う取付部材と判断する。表示制御部158は、構造体110に対して仮想取付部材201,202,203,204を表示した状態から、図9に示されているように、ユーザが操作した仮想取付部材201の表示とそれに対応する距離の表示とを残し、仮想取付部材202,203,204を非表示にさせてもよい。部材判断部159は、操作検出部106において、仮想取付部材でなく、治具120の距離を示す情報206,207が操作された場合に、操作された情報206,207に対応する取付部材を、ユーザが取付作業を行う取付部材として判断してもよい。
例えば、部材判断部159は、視線方向検出部154の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、複数の取付部材のうち、視線方向検出部154の検出結果に対応する取付部材を判断する。表示制御部158は、判断された取付部材に関する治具120の配置を示す情報の表示処理を行う。例えば、表示制御部158は、図9に示されているように、視線方向検出部154で検出された視線方向に対応する仮想取付部材201の表示及びそれに対応する情報206,207の表示を残し、仮想取付部材202,203,204を非表示にさせてもよい。視線方向に対応する仮想取付部材は、視線方向の半直線上に位置する最も手前の仮想取付部材であってもよい。表示制御部158は、視線方向の延長線上に位置する仮想取付部材の色を変更して表示し、操作検出部106によるユーザの操作の検出結果に応じて治具120の配置に用いる表示を確定させてもよい。
例えば、部材判断部159は、ユーザ位置検出部153の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、複数の取付部材のうち、ユーザ位置検出部153の検出結果に対応する取付部材を判断する。表示制御部158は、判断された取付部材に関する治具120の配置を示す情報の表示処理を行う。例えば、部材判断部159は、ユーザ位置検出部153の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、ユーザが構造体110に対して上下左右のどこにいるかを判断する。例えば、図10に示されているように、構造体110の延在方向に直交する面が4つの領域R1,R2,R3,R4に区分される。部材判断部159は、ユーザ位置検出部153で検出されたユーザの位置が領域R1である場合には、領域R1に対応する仮想取付部材202を判断結果として出力する。表示制御部158は、仮想取付部材202及びそれに対応する距離を示す情報の表示を残し、残りの情報を非表示にしてもよい。部材判断部159は、ユーザの位置が異なる領域の間付近に位置する場合には、双方の領域に対応する仮想取付部材を判断結果として出力する。
部材判断部159は、ユーザ位置検出部153の検出結果からユーザと構造体110との距離を演算し、当該距離に応じて取付部材を判断してもよい。例えば、部材判断部159は、ユーザから2m以内にある仮想取付部材を判断結果として出力してもよい。この場合、表示制御部158は、例えば、ユーザから2m以内に位置する仮想取付部材を青色で表示させ、ユーザから2m以上離れている仮想取付部材を非表示にさせる又は半透明で表示させてもよい。表示制御部158は、ユーザから2m以内に位置している仮想取付部材であっても、構造体110を挟んでユーザとは反対側に位置する仮想取付部材は非表示にさせてもよい。例えば、図9において、仮想取付部材202がユーザから2m以内に位置していても、仮想取付部材202は構造体110を挟んでユーザとは反対側に位置しているため、表示制御部158は仮想取付部材202を非表示にさせる。部材判断部159は、ユーザ位置検出部153の検出結果からユーザと治具120との配置関係を取得し、当該配置関係に応じて取付部材を判断してもよい。
[映像表示システムにおける処理]
次に、図11を参照して、映像表示システム100において行われる処理の一例について説明する。図11は、映像表示システム100において行われる処理の一例を示すフローチャートである。
ステップS101において、基準位置検出部151が仮想座標軸αの原点Nを配置する基準位置を検出する。続いて、ステップS102へ処理が進められる。
ステップS102において、構造体配置検出部152が実空間に配置された構造体110の配置を検出する。続いて、ステップS103へ処理が進められる。
ステップS103において、ディスプレイ配置検出部155が表示部103のディスプレイの配置を検出する。続いて、ステップS104へ処理が進められる。
ステップS104において、治具配置検出部156が実空間に配置された治具120の配置を検出する。続いて、ステップS105へ処理が進められる。
ステップS105において、制御部107が、ステップS102からステップS104で検出された情報に基づいて、表示処理を行う。表示部103は、制御部107からの指示に応じて、各種の情報を表示する。
次に、図12を参照して、制御部107による表示処理について説明する。図12は、制御部107によって行われる表示処理を示すフローチャートである。
ステップS111において、制御部107は、部材の選択情報があるか否かを判断する。部材の選択情報とは、例えば、操作検出部106の検出結果、構造体110に対するユーザの位置、及び、ユーザの視線方向のうち少なくとも一つに基づいて、部材判断部159が判断した判断結果である。部材の選択情報がないと判断された場合(ステップS111でNO)、制御部107はステップS112に処理を進める。部材の選択情報があると判断された場合(ステップS111でYES)、制御部107はステップS113に処理を進める。
ステップS112において、制御部107は、表示制御部158によって、格納部105に格納されている全ての仮想取付部材を表示部103に表示させ、ステップS117に処理を進める。
ステップS113において、制御部107は、治具配置検出部156において治具配置が検出されたか否かを判断する。治具配置が検出されていないと判断された場合(ステップS113でNO)、制御部107はステップS114に処理を進める。治具配置が検出されたと判断された場合(ステップS113でYES)、制御部107はステップS115に処理を進める。
ステップS114において、制御部107は、表示制御部158によって、部材判断部159で判断された取付部材に対応する仮想取付部材を表示部103に表示させ、ステップS117に処理を進める。
ステップS115において、制御部107は、治具配置検出部156の検出結果に基づいて、治具配置が適切か否かを判断する。治具配置が適切と判断された場合(ステップS115でYES)、制御部107はステップS114に処理を進める。治具配置が適切でないと判断された場合(ステップS115でNO)、制御部107はステップS116に処理を進める。
ステップS116において、制御部107は、表示制御部158によって、部材判断部159で判断された取付部材に対応する仮想取付部材、及び、エラーを表示部103に表示させ、制御部107はステップS117に処理を進める。この場合、表示制御部158は、例えば、ズレが発生していることを示す情報160を表示部103に表示させる。
ステップS117において、制御部107は、表示処理を終了するか否かを判断する。表示処理を終了しないと判断された場合(ステップS117でNO)、制御部107はステップS111に処理を進める。表示処理を終了すると判断された場合(ステップS117でYES)、制御部107は表示処理を終了する。
[映像表示システムの作用及び効果]
次に、本実施形態に係る映像表示システム100の主な作用及び効果について説明する。
映像表示システム100では、構造体110に対して取付部材の位置決めを行う治具120の配置情報が格納されており、実空間に配置された構造体110に対して上記治具120の配置を示す表示処理が行われる。ユーザは、治具120の配置を示す表示処理にしたがって容易に、当該治具120を配置することができる。この結果、当該治具120によって構造体110に対して上記取付部材を位置決めし、構造体110に対する取付部材の取付作業を容易に行うことができる。
例えば、取付部材131は、面板111の主面111aに対して傾斜しつつ、面板112の主面112a及び面板113の主面113aに対しても傾斜した状態で、構造体110に取り付けられる。このような状態における取付作業は、非常に困難である。治具120は、平面121aを有する第一治具121と、平面121aに対向する平面122aを有する第二治具122とを含む。治具120の配置情報は、平面121aと平面122aとが取付部材に当接する、治具120の配置情報を含む。このため、映像表示システム100によれば、上記治具120を容易に適切に配置できると共に構造体110に対する取付部材131の位置決めも容易である。
構造体110は、所定方向に延在すると共に取付部材が接する主面111aを有する。治具120の配置情報は、所定方向における取付部材の位置と、主面111aに対する取付部材の傾斜角度と、主面111aに直交する軸に対する部材の回転角度とを制限する治具120の配置情報を含む。このため、映像表示システム100によれば、上記治具120を容易に適切に配置できると共に構造体110に対する取付部材131の位置決めも容易である。
映像表示システム100は、表示処理による表示を行うディスプレイの配置を検出するディスプレイ配置検出部155を備える。制御部107は、ディスプレイ配置検出部155で検出されたディスプレイの配置に応じて、当該ディスプレイ上における構造体の表示及び治具120の配置を示す情報の表示配置を変更させる。このため、ユーザは、ディスプレイを動かすことで、任意の位置について構造体に対する治具120の配置を確認できる。
映像表示システム100は、実空間に配置された治具120の配置を検出する治具配置検出部156を備える。制御部107は、治具配置検出部156で検出された治具120の配置と格納部105に格納されている治具120の配置情報とに基づいて、治具120の位置ズレを示す情報160を表示させる。このため、ユーザは、治具120の配置が適切か否かを容易に確認できる。
映像表示システム100は、ユーザの操作を検出する操作検出部106を備える。制御部107は、操作検出部106の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、複数の取付部材のうち、ユーザの操作に対応する取付部材に関する治具の配置を示す情報の表示処理を行う。このため、ユーザは、表示する治具の配置を示す情報を選択することができる。
格納部105は、構造体110に対する複数の取付部材の配置情報を格納している。制御部107は、格納部105に格納された複数の部材の配置情報に基づいて、複数の取付部材の配置を示す情報の表示を指示する。制御部107は、複数の取付部材のうち、操作検出部106の検出結果に対応する取付部材を判断し、判断された取付部材に関する治具120の配置を示す表示処理を行う。このため、ユーザは、表示されている取付部材を操作することで、治具の配置を示す情報を選択することができる。
映像表示システム100は、ユーザの位置を検出するユーザ位置検出部153を備える。制御部107は、ユーザ位置検出部153の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、複数の取付部材のうち、ユーザの位置に対応する取付部材に関する治具の配置を示す情報の表示処理を行う。このため、ユーザの位置に応じて、適切な治具の配置を示す情報が表示され得る。
映像表示システム100は、ユーザの視線方向を検出する視線方向検出部154を備える。制御部107は、視線方向検出部154の検出結果と格納部105に格納されている治具120の配置情報とに基づいて、複数の取付部材のうち、ユーザの視線方向に対応する取付部材に関する治具の配置を示す情報の表示処理を行う。このため、ユーザの視線方向に応じて、適切な治具の配置を示す情報が表示され得る。
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)又は送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
例えば、本開示の一実施の形態における映像表示システムは、本実施形態における処理を行うコンピュータとして機能してもよい。図13は、本開示の一実施の形態に係る映像表示システム100のハードウェア構成の一例を示す図である。上述の映像表示システム100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。また、映像表示システム100は、上記以外にも、撮像部101、慣性計測部102に用いられるセンサ、及びディスプレイ等のハードウェアも備える。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。映像表示システム100のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
映像表示システム100における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、環境情報検出部104及び制御部107などは、プロセッサ1001で実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、表示部103、環境情報検出部104、操作検出部106、及び制御部107は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
また、映像表示システム100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated
Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G(4th
generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE−Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
100…映像表示システム、105…格納部、106…操作検出部、107…制御部、110…構造体、111a…主面、120…治具、121…第一治具、121a,122a…平面、122…第二治具、131,132…取付部材、152…構造体配置検出部、153…ユーザ位置検出部、154…視線方向検出部、155…ディスプレイ配置検出部、156…治具配置検出部、201,202,203,204…仮想取付部材。

Claims (9)

  1. 構造体に対する部材の取付作業に用いる映像表示システムであって、
    前記構造体に対して前記部材の位置決めを行う治具の配置情報を格納している格納部と、
    実空間に配置された前記構造体の配置を検出する構造体配置検出部と、
    前記格納部に格納されている前記治具の配置情報と前記構造体配置検出部の検出結果とに基づいて、前記実空間に配置された前記構造体に対して前記治具の配置を示す表示処理、を行う制御部と、を備える、映像表示システム。
  2. 前記表示処理による表示を行うディスプレイの配置を検出するディスプレイ配置検出部を更に備え、
    前記制御部は、前記ディスプレイ配置検出部で検出された前記ディスプレイの配置に応じて、当該ディスプレイ上における前記構造体の表示配置及び前記治具の配置を示す情報の表示配置を変更させる、請求項1に記載の映像表示システム。
  3. 前記実空間に配置された前記治具の配置を検出する治具配置検出部を更に備え、
    前記制御部は、前記治具配置検出部で検出された前記治具の配置と前記格納部に格納されている前記治具の配置情報とに基づいて、前記治具の位置ズレを示す情報を表示させる、請求項1又は2に記載の映像表示システム。
  4. ユーザの操作を検出する操作検出部を更に備え、
    前記制御部は、前記操作検出部の検出結果と前記格納部に格納されている前記治具の配置情報とに基づいて、複数の前記部材のうち、前記ユーザの操作に対応する部材に関する前記治具の配置を示す情報の表示処理を行う、請求項1又は2に記載の映像表示システム。
  5. 前記格納部は、前記構造体に対する複数の前記部材の配置情報を格納しており、
    前記制御部は、
    前記格納部に格納された複数の前記部材の配置情報に基づいて、複数の前記部材の配置を示す情報の表示を指示し、
    複数の前記部材のうち、前記操作検出部の検出結果に対応する部材を判断し、
    判断された前記部材に関する前記治具の配置を示す表示処理を行う、請求項4に記載の映像表示システム。
  6. ユーザの位置を検出するユーザ位置検出部を更に備え、
    前記制御部は、前記ユーザ位置検出部の検出結果と前記格納部に格納されている前記治具の配置情報とに基づいて、複数の前記部材のうち、前記ユーザの位置に対応する部材に関する前記治具の配置を示す情報の表示処理を行う、請求項1〜5のいずれか一項に記載の映像表示システム。
  7. ユーザの視線方向を検出する視線方向検出部を更に備え、
    前記制御部は、前記視線方向検出部の検出結果と前記格納部に格納されている前記治具の配置情報とに基づいて、複数の前記部材のうち、前記ユーザの視線方向に対応する部材に関する前記治具の配置を示す情報の表示処理を行う、請求項1〜6のいずれか一項に記載の映像表示システム。
  8. 前記治具は、第一面を有する第一治具と、前記第一面に対向する第二面を有する第二治具とを含み、
    前記治具の配置情報は、前記第一面と前記第二面とが前記部材に当接する、前記第一及び第二治具の配置情報を含む、請求項1〜7のいずれか一項に記載の映像表示システム。
  9. 前記構造体は、所定方向に延在すると共に前記部材が接する面を有し、
    前記治具の配置情報は、前記所定方向における前記部材の位置と、前記面に対する前記部材の傾斜角度と、前記面に直交する軸に対する前記部材の回転角度とを制限する前記治具の配置情報を含む、請求項1〜8のいずれか一項に記載の映像表示システム。
JP2020561934A 2019-04-25 2019-12-25 治具の配置を示す映像処理システム Active JP7066013B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019084245 2019-04-25
JP2019084245 2019-04-25
PCT/JP2019/050957 WO2020217591A1 (ja) 2019-04-25 2019-12-25 治具の配置を示す映像処理システム

Publications (2)

Publication Number Publication Date
JPWO2020217591A1 true JPWO2020217591A1 (ja) 2021-06-03
JP7066013B2 JP7066013B2 (ja) 2022-05-12

Family

ID=72942573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020561934A Active JP7066013B2 (ja) 2019-04-25 2019-12-25 治具の配置を示す映像処理システム

Country Status (5)

Country Link
US (1) US20210264678A1 (ja)
EP (1) EP3779893A4 (ja)
JP (1) JP7066013B2 (ja)
CN (1) CN112424838B (ja)
WO (1) WO2020217591A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102355733B1 (ko) * 2021-06-25 2022-02-09 주식회사 인터랙트 가상현실 훈련 시스템 및 이를 위한 바닥유닛

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215748A (ja) * 2013-04-24 2014-11-17 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
JP2017039168A (ja) * 2015-08-18 2017-02-23 リンカーン グローバル, インコーポレイテッドLincoln Global, Inc. 溶接作業順序立てのための拡張現実インタフェース
JP2018047240A (ja) * 2016-09-16 2018-03-29 インテリジェンスファクトリー合同会社 手術支援端末及びプログラム
JP2019208737A (ja) * 2018-06-01 2019-12-12 インテリジェンスファクトリー合同会社 手術支援用マーカー及び手術支援システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018444A (ja) 2004-06-30 2006-01-19 Taisei Corp 画像処理システム及び付加情報指示装置
DE102009056013A1 (de) * 2009-09-09 2011-03-10 Volkswagen Ag Verfahren zum Erzeugen eines Augmented-Reality-Bildes
JP6451139B2 (ja) * 2014-08-11 2019-01-16 株式会社大林組 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム
US9875665B2 (en) * 2014-08-18 2018-01-23 Illinois Tool Works Inc. Weld training system and method
US20160131904A1 (en) * 2014-11-07 2016-05-12 Osterhout Group, Inc. Power management for head worn computing
WO2016144741A1 (en) * 2015-03-06 2016-09-15 Illinois Tool Works Inc. Sensor assisted head mounted displays for welding
US9898091B2 (en) * 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
US10140773B2 (en) * 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
DE112018002678T5 (de) * 2017-05-25 2020-03-05 Mitsubishi Electric Corporation Designüberprüfungsgerät, Designprüfverfahren und Programm
JP6585665B2 (ja) * 2017-06-29 2019-10-02 ファナック株式会社 仮想オブジェクト表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215748A (ja) * 2013-04-24 2014-11-17 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
JP2017039168A (ja) * 2015-08-18 2017-02-23 リンカーン グローバル, インコーポレイテッドLincoln Global, Inc. 溶接作業順序立てのための拡張現実インタフェース
JP2018047240A (ja) * 2016-09-16 2018-03-29 インテリジェンスファクトリー合同会社 手術支援端末及びプログラム
JP2019208737A (ja) * 2018-06-01 2019-12-12 インテリジェンスファクトリー合同会社 手術支援用マーカー及び手術支援システム

Also Published As

Publication number Publication date
EP3779893A4 (en) 2021-08-04
EP3779893A1 (en) 2021-02-17
CN112424838A (zh) 2021-02-26
JP7066013B2 (ja) 2022-05-12
WO2020217591A1 (ja) 2020-10-29
US20210264678A1 (en) 2021-08-26
CN112424838B (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
JP5374071B2 (ja) 携帯端末および領域特定処理実行方法
WO2012124250A1 (ja) オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
JP2013054661A (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP2006301924A (ja) 画像処理方法および画像処理装置
US10261327B2 (en) Head mounted display and control method for head mounted display
JP2007064684A (ja) マーカ配置補助方法及び装置
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
US9594436B2 (en) Three-dimensional image display device, cursor display method therefor, and computer program
JP7066013B2 (ja) 治具の配置を示す映像処理システム
EP3037936A2 (en) Image projection apparatus, and system employing interactive input-output capability
JP6836979B2 (ja) 映像表示システム
US20140132482A1 (en) Information processing apparatus for displaying adjacent partial images out of a plurality of partial images that constitute one image on display units of a plurality of adjacent information processing apparatuses
JP6878235B2 (ja) 映像表示システム
US20230316668A1 (en) Display device for industrial machine
JP2006215750A (ja) 画像処理方法、画像処理装置
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
JP6999821B2 (ja) 端末装置および端末装置の制御方法
JP6686319B2 (ja) 画像投影装置及び画像表示システム
US11620044B2 (en) Mobile terminal
JP7272118B2 (ja) 侵入検知装置、プログラムおよび侵入検知システム
JP2021060856A (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP7246254B2 (ja) 情報処理装置及びプログラム
US11431900B2 (en) Image data processing method and device therefor
JP7452917B2 (ja) 操作入力装置、操作入力方法及びプログラム
US11893165B2 (en) Display apparatus communicably connected to external control apparatus that receives operator's operation, control method for same, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7066013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150