JP2019159942A - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019159942A
JP2019159942A JP2018047120A JP2018047120A JP2019159942A JP 2019159942 A JP2019159942 A JP 2019159942A JP 2018047120 A JP2018047120 A JP 2018047120A JP 2018047120 A JP2018047120 A JP 2018047120A JP 2019159942 A JP2019159942 A JP 2019159942A
Authority
JP
Japan
Prior art keywords
information
difference
depth
image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018047120A
Other languages
English (en)
Other versions
JP7000935B2 (ja
Inventor
渕上 正睦
Masamutsu Fuchigami
正睦 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018047120A priority Critical patent/JP7000935B2/ja
Publication of JP2019159942A publication Critical patent/JP2019159942A/ja
Application granted granted Critical
Publication of JP7000935B2 publication Critical patent/JP7000935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な情報処理装置、情報処理システム、情報処理方法及びプログラムを提供する。【解決手段】実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する表示部と、を備える情報処理装置を提供する。【選択図】図8

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
工場や事業所内に設置された機器や設備が適切な状態で設置されているかどうかを確認したり、これらの機器等において故障等が生じた場合に、これらの機器等の保守を迅速に実施したりするために、これらの対象機器等の状態を直感的に把握することが求められる。そこで、例えば、上記対象機器等の現状の画像を取得し、コンピュータ等により取得画像と上記対象機器等があるべき状態とを比較し、比較結果を、上記対象機器等を設置する作業員等に提供することにより、当該作業員等は、上記対象機器等の状態を直感的に把握することができるようになる。また、他の方法としては、上記対象機器等に各種のセンサを予め装着し、各種のセンサによって取得されたセンサデータを、上記対象機器等の実態に合わせてモデル化し、当該モデルを解析することにより、上記対象機器等における不備等を検証し、検証結果を作業員等に提供するような方法も利用することができる。
例えば、下記特許文献1には、部品を取り付ける被取付体及び当該部品の仮想モデルと、デプスセンサで取得した作業空間(実空間)の3次元イメージとを比較することにより、当該部品の取り付けを支援する作業支援システムが開示されている。また、下記特許文献2には、各種センサによって取得されたセンサデータを、コメント(例えば、センサによって検知した問題点等)と共に表示する測定システムが開示されている。
特開2017−191351号公報 特開2015−040775号公報
しかしながら、関係者以外への機密漏えいを防止する観点から、工場内等の中で撮影した対象機器等の画像を外部へ持ち出すことができないことがある。また、上記対象機器等に装着すべきセンサの数が不足したり、適切な位置にセンサが装着されていなかったりすることに起因して、現状の上記対象機器等の状態を把握することが難しい場合がある。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な、新規且つ改良された情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する表示部と、を備える情報処理装置が提供される。
前記情報処理装置は、前記被対象物の実像又は前記被対象物の撮像画像に対して前記差分情報を強調して表示するために、前記差分情報に対してエフェクト処理を行うエフェクト処理部をさらに備えてもよい。
前記エフェクト処理部は、前記差分情報が、前記被対象物の実像又は前記被対象物の撮像画像とは異なる色彩、明度、又は透明度によって表示されるように、前記差分情報を処理してもよい。
前記エフェクト処理部は、前記差分情報がワイヤーフレーム表示されるように、前記差分情報を処理してもよい。
前記センサ部は、前記被対象物に対して照射光を照射し、当該被対象物で反射された反射光を受光し、前記照射光と前記反射光との位相差又は時間差を検知することで、前記深度情報を取得するデプスセンサであってもよい。
前記センサ部は、複数のカメラにより前記被対象物を撮像して、前記深度情報を取得するステレオカメラであってもよい。
前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の実像に重畳して表示するスマートアイグラスであってもよい。
前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の撮像画像に重畳して表示するヘッドマウントディスプレイであってもよい。
前記情報処理装置は、前記被対象物を撮像する撮像部をさらに備えてもよい。
前記情報処理装置は、前記被対象物又は前記ユーザに装着された加速度センサ及び地磁気センサのうちの少なくとも1つを備え、前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出してもよい。
前記情報処理装置は、前記形状情報及び前記深度情報を平面に投影する平面投影部をさらに備え、前記差分算出部は、平面に投影された前記形状情報と、平面に投影された前記深度情報との差分である前記差分情報を算出してもよい。
前記差分算出部は、前記深度情報において深度が無限遠となる領域に関しては、差分が発生していないものとして処理を行ってもよい。
また、上記課題を解決するために、本発明の別の観点によれば、実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する表示部と、を備える情報処理システムが提供される。
また、上記課題を解決するために、本発明のさらなる別の観点によれば、センサ部から実空間上にある被対象物の深度情報を取得し、前記実空間における前記センサ部と前記被対象物との位置関係情報を算出し、予め格納された前記被対象物の3次元形状に関する形状情報を前記位置関係情報に基づき変換し、変換された前記形状情報と、前記深度情報との差分である差分情報を算出し、算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する、ことを含む情報処理方法が提供される。
さらに、上記課題を解決するために、本発明のさらなる別の観点によれば、コンピュータに、センサ部から実空間上にある被対象物の深度情報を取得する機能と、前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する機能と、予め格納された前記被対象物の3次元形状に関する形状情報を前記位置関係情報に基づき変換し、変換された前記形状情報と、前記深度情報との差分である差分情報を算出する機能と、算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する機能と、を実現させるプログラムが提供される。
以上説明したように本発明によれば、機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な、情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することができる。
本発明の第1の実施形態に係る情報処理システム1の概要について説明するための説明図である。 本発明の第1の実施形態に係るHMD32の一例を説明するための説明図である。 本発明の第1の実施形態に係るスマートアイグラス30の使用の一例を説明するための説明図である。 本発明の第1の実施形態に係る処理装置40のブロック図である。 本発明の第1の実施形態に係る情報処理方法のフローチャートである。 本発明の第1の実施形態における実空間の実像800の例を説明するための説明図である。 本発明の第1の実施形態における被対象物10の3次元情報810の例を説明するための説明図である。 本発明の第1の実施形態に係る情報処理方法における処理例を説明するための説明図である。 本発明の第1の実施形態に係る差分画像820を重畳した重畳画像822の一例を説明するための説明図である。 本発明の第2の実施形態に係る処理装置40、50のブロック図である。 本発明の第2の実施形態に係る情報処理方法のシーケンス図である。 本発明の第2の実施形態に係る表示画像840の一例を説明するための説明図である。 本発明の実施形態に係る情報処理装置900のハードウェア構成例を示したブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<<本発明の実施形態をなすに至った経緯>>
まずは、本発明の実施形態の具体的な説明に先立ち、本発明者が本発明の実施形態をなすに至った経緯について説明する。
例えば、先に説明したように、工場や事業所内に設置された機器や設備が適切な状態で設置されているかどうかを確認したり、これらの機器等において故障等が生じた場合に、これらの機器等の保守を迅速に実施したりするために、これらの機器等の状態を直感的に把握することが求められる。そこで、例えば、上記対象機器等の現状の画像を取得し、コンピュータ等により取得画像と上記対象機器等があるべき状態とを比較し、比較結果を、上記対象機器等を設置する作業員等に提供することにより、当該作業員等は、上記対象機器等の状態を直感的に把握することができるようになる。
しかしながら、製造ラインが設けられた工場内や、顧客の財産を取り扱う金融機関の建物内や、顧客の情報を保管する複数のサーバが配置されたデータセンタ等においては、関係者以外への機密漏えいを防止する観点から、これらの場所の内部で撮影した画像を外部へ持ち出すことが制限されていることがある。従って、これらの場所に設置される機器等については、その画像を外部に持ち出すことができないこともあることから、上述のように画像を用いることによって対象機器等の現状の状態を把握することは難しいことがある。
そこで、対象機器の現状の状態を把握するために、以下のような方法を用いることが考えられる。例えば、1つの方法としては、対象機器に各種のセンサ(例えば、機器の開閉を検知するリードスイッチ等)を予め装着し、これらの各種のセンサによって取得されたセンサデータを、上記対象機器等の実態に合わせてモデル化することが挙げられる。そして、上記モデルを解析することにより、上記対象機器における不備等を検証し、検証結果を作業員等に提供することにより、対象機器の現状の状態を把握することが可能となる。しかし、このような方法であっても、上記対象機器に装着すべきセンサの数が不足していたり、適切な位置に適切なセンサが装着されていなかったりすることに起因して、現状の上記対象機器等の状態を適切に示すようなモデルを得ることができないことがある。このような場合、適切なモデルを得ることができないことから、上記対象機器等の状態を把握することができないこととなる。
このような状況を踏まえ、本発明者は、機密漏えいを防止しつつ、対象となる機器等の状態を直感的に把握することができる技術を確立しようと、鋭意検討を重ねていた。そのような検討を行う中で、本発明者は、対象機器の状態を取得するためにデプスセンサを用いることに着想した。
デプスセンサは、対象となる物体にパルス状のレーザ光等(照射光)を照射し、当該対象物体の表面で反射された光(反射光)を検知することにより、上記照射光と上記反射光との位相差又は時間差によって、デプスセンサから対象物体の表面までの距離、すなわち、対象物体の表面の凹凸等の奥行き情報である深度情報を取得することができるセンサである。詳細には、当該深度情報は、デプスセンサの位置を基準とした場合の、対象物体の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群であることができる。さらに、上記3次元座標情報群を利用して、対象物体の表面の各点の深度(距離)に応じてグラデーションをつけて平面に投影することにより、当該対象物体のデプス画像(例えば、図8の実デプス画像802 参照)を得ることができる。当該デプス画像は、グラデーションにより、対象物体の輪郭や表面の凹凸形状が表現されることにより、当該対象物体の輪郭や表面の形状を把握することができる平面画像であるといえる。
すなわち、デプスセンサによって取得することができる深度情報は、デプスセンサから対象物体までの相対距離や、当該対象物体の表面の形状についての情報であるといえる。従って、デプスセンサによって得られる深度情報は、例えば、当該対象物体の表面に印刷された、又は、表示された文字や模様等の情報を、これらが凹凸によって表現されたものでない限り、含むことが難しい。また、デプスセンサの精度にも依存するが、一般的に、デプスセンサは、均一な表面における微細な凹凸等といった、微細な形状の情報を得ることも難しい。
このようなデプスセンサの特徴を鑑み、本発明者は、デプスセンサの特徴を生かすことで、機密漏えいを防止しつつ、対象機器の現状の状態を直感的に把握することができる技術を創作できるのではないかと考えたのである。例えば、工場、金融機関、データセンタ等においては、漏洩してはいけない機密情報は、これらの場所に設置された、対象機器の周囲に存在する他の機器等であったり、当該対象機器の表面に表示された文字情報等であったりすることが多い。そこで、本発明者は、対象機器の状態を把握するための情報として、デプスセンサによって取得された深度情報を用いることに想到した。深度情報には、デプスセンサの特徴により上述のような機密情報が含まれないことから、本発明者は、デプスセンサを利用することにより、機密漏えいを防止することができるのではないかと考えたのである。
すなわち、本発明者が着想した本発明の実施形態においては、デプスセンサによって得られる対象機器の深度情報を対象機器の実態に合わせてモデル化(デプス画像化)し、当該モデルと対象機器があるべき理想状態とを比較し、比較結果(差分)を作業員等に提供する。このような本発明の実施形態によれば、機密漏えいを防止しつつ、対象機器の現状の状態を直感的に把握することができる。以下、このような本発明の実施形態を順次詳細に説明する。
なお、以下に説明する本発明の各実施形態は、工場、金融機関、データセンサ、各種インフラ設備が設置された工場や事業場等において、機器や設備等の設置や保守を支援するために用いることができる。以下の説明においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、被対象物10の保守作業を行う場合を例に説明する。
<<第1の実施形態>>
<情報処理システム1の概要>
まずは、本発明の第1の実施形態に係る情報処理システム1の概要について、図1から図3を参照して説明する。なお、図1は、本実施形態に係る情報処理システム1の概要について説明するための説明図である。図2は、本実施形態に係るHMD(Head Mounted Display(ヘッドマウントディスプレイ))32の一例を説明するための説明図である。さらに、図3は、本実施形態に係るスマートアイグラス30の使用の一例を説明するための説明図である。
本実施形態に係る情報処理システム1は、図1に示すように、被対象物10に装着された被対象物側センサ12と、デプスセンサ(センサ部)22と、カメラ(撮像部)24と、加速度センサ26と、地磁気センサ28と、ユーザ20の頭部に装着されたスマートアイグラス30と、処理装置40とを主に含む。なお、図1においては、わかりやすくするためにデプスセンサ22については、デプスセンサ22単独、及び、スアートアイグラス30と一体となった状態のデプスセンサ22というように、重複して図示している。以下に、本実施形態に係る情報処理システム1に含まれる各装置の概要について説明する。
(被対象物側センサ12)
被対象物側センサ12は、本実施形態における被対象物10である、工場の内部に設置された機器や設備等に装着されたセンサである。詳細には、被対象物側センサ12は、被対象物10である対象機器の開閉を検知するリードスイッチ等といった、被対象物10の状態等を検知するためのセンサ群を含むことができる。なお、本実施形態においては、被対象物側センサ12は、被対象物10である機器に予め備えつけられているセンサであってもよく、もしくは、被対象物10である機器に後付されたセンサであってもよく、特に限定されるものではない。
本実施形態においては、例えば、被対象物側センサ12が、被対象物10の状態の検知が可能なように設置されていない場合(例えば、被対象物側センサ12が、設計漏れや取り付け漏れ等によって設置されていない場合)であっても、以下に説明する情報処理システム1を用いることにより、所望する被対象物10の状態の検知が可能となる。さらに、被対象物側センサ12は、自身が取得したセンサデータを後述する処理装置40へ、通信網70を介して、送信することができる。そして、当該処理装置40は、被対象物側センサ12からのセンサデータを用いて、被対象物10の状態を表示することができる。
(デプスセンサ22)
デプスセンサ22は、Light Detection and Ranging、Laser Imaging Detection and Ranging(LIDAR)を利用したセンサである。言い換えると、デプスセンサ22は、光を利用して、実空間上におけるデプスセンサ22から対象となる物体(本実施形態においては被対象物10)の表面の各点との距離を計測することができるセンサである。詳細には、デプスセンサ22は、例えば、被対象物10に所定の周期を持つパルス状のレーザ光等(照射光)を照射し、被対象物10の表面で反射された光(反射光)を受光することにより、上記照射光と上記反射光との位相差又は時間差によって、被対象物10の輪郭や、被対象物10の表面の凹凸等の情報である深度情報を取得することができる。
そして、先に説明したように、上記深度情報は、デプスセンサ22の位置を基準とした場合の、被対象物10の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群であることができる。従って、上記3次元座標情報群を利用して、被対象物10の表面の各点の深度(距離)に応じてグラデーションをつけて平面に投影することにより、被対象物10のデプス画像(例えば、図8の実デプス画像802 参照)を得ることができる。
このようなデプスセンサ22は、先に説明したように、被対象物10の表面に印刷された、又は、表示された文字や模様等の情報のような機密情報を、これらが凹凸によって表現されたものでない限り、取得することは難しい。従って、本実施形態においては、デプスセンサ22によって得られる深度情報を利用することにより、機密漏えいを防止しつつ、被対象物10の現状の状態を直感的に把握することができる。
さらに、本実施形態においては、被対象物10の状態を把握するために用いる深度情報には、被対象物10の周囲に存在する機器等についての深度情報が含まれないようにすることが好ましい。このようにすることで、本実施形態においては、被対象物10の周囲に存在する機器等の情報のような機密情報の漏洩を防止することができる。
さらに、デプスセンサ22は、取得したセンサデータ(深度情報)を後述する通信網70を介して、後述する処理装置40に送信することができる。
なお、デプスセンサ22は、後述するスマートアイグラス30との間で相対的な位置関係が固定され、固定された相対的な位置関係に関する情報が予め取得されていることが好ましい。例えば、図1及び図3に示すように、デプスセンサ22とスマートアイグラス30とが一体の装置となっていることが好ましい。しかしながら、本実施形態においては、これに限定されるものではなく、デプスセンサ22及びスマートアイグラス30の位置情報が取得することができるような位置情報センサ(図示省略)を利用し、デプスセンサ22及びスマートアイグラス30の相対的な位置関係に関する情報を取得してもよい。
また、本実施形態においては、デプスセンサ22の代わりに、複数のカメラ間における視差を利用して、デプスセンサ22のように対象となる物体までの距離の情報を取得することができる、複数のカメラからなるステレオカメラ(図示省略)を用いてもよい。ただし、ステレオカメラを用いた場合には、工場の内部の詳細な画像が得られることから、被対象物10の状態を把握するために用いる、ステレオカメラの画像には、機密情報である被対象物10の周囲に存在する機器等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。
(カメラ24)
カメラ24は、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等を撮像する撮像装置であって、被対象物10で反射される光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより画像を取得することができる。詳細には、カメラ24は、光を集光する撮影レンズ及びズームレンズなどの撮像光学系、及び、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有することができる。また、カメラ24は、当該カメラ24が取得した画像データを後述する通信網70を介して処理装置40に送信することもできる。当該処理装置40は、カメラ24からの画像データを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
なお、上述したステレオカメラ(図示省略)と同様に、カメラ24を用いた場合には、工場の内部の詳細な画像が得られることから、カメラ24の画像データには、機密情報である被対象物10の周囲に存在する機器等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。
(加速度センサ26)
加速度センサ26は、例えば、3軸加速度センサにより実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等の運動による加速度を検知する。加速度センサ26は、加速度センサ26が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、加速度センサ26からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30の位置関係を示す位置関係情報を計算してもよい。さらに、加速度センサ26には、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着されたジャイロセンサ(図示省略)が含まれていてもよく、加速度センサ26は、例えば、3軸ジャイロセンサにより実現され、被対象物10等の運動による角速度(回転速度)を検知する。
(地磁気センサ28)
地磁気センサ28は、例えば、3軸地磁気センサ(コンパス)により実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等に装着され、絶対方向(方位)を検知する。なお、ここで、絶対方位とは、実空間における世界座標系(東西南北)における方位のことをいう。地磁気センサ28は、地磁気センサ28が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、地磁気センサ28からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
なお、上述したデプスセンサ22、カメラ24、加速度センサ26及び地磁気センサ28は、被対象物10の近傍に位置する固定装置(図示省略)や、工場内を移動することができるロボット等の移動装置(図示省略)に装着されていてもよい。さらに、カメラ24、加速度センサ26及び地磁気センサ28は、ユーザ20の頭部に装着されたスマートアイグラス30と一体の装置として構成されていてもよい。
(スマートアイグラス30)
スマートアイグラス30は、図1に示されるように、ユーザ20の頭部に装着される眼鏡型のHMDである。スマートアイグラス30は、装着時にユーザ20の眼前に位置する眼鏡レンズ部分に相当する表示部(図示省略)を持ち、当該表示部は、眼鏡レンズ部分の外側を視認することができる透過型ディスプレイにより実現される。当該表示部が透過型ディスプレイであることから、スマートアイグラス30は、ユーザ20の周囲の実空間上の物体(本実施形態においては被対象物10)の実像800(例えば、図8 参照)に重畳して、画像を当該ユーザ20に向けて表示することができる。このような透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いた透明な導光部等からなる虚像光学系がユーザ20の眼前に保持されることにより、当該虚像光学系の内側に画像を結像させ、ユーザ20に向けて当該画像を表示することができる。以下の説明においては、透過型ディスプレイの表示部を持つHMDを「スマートアイグラス」と呼ぶものとする。さらに、スマートアイグラス30は、後述する処理装置40からの情報を、通信網70を介して受信することができる。なお、先に説明したように、図1及び図3に示すように、スマートアイグラス30は、デプスセンサ22と一体の装置となっていることが好ましい。
また、本実施形態においては、スマートアイグラス30の代わりに、表示部(図示省略)として非透過型ディスプレイを用いたHMD32が使用されてもよい。このような場合、HMD32は、図2に示されるように、ユーザ20の頭部に装着されることができ、ユーザ20が視認する方向の実空間を撮像範囲として撮像する外向きカメラ34を有する。そして、HMD32は、上記外向きカメラ34で撮像された実空間上の物体(例えば、被対象物10)の撮像画像に重畳して、別の画像を当該ユーザ20に向けて表示することができる。なお、図2においては、わかりやすくするために、HMD32と一体化するように設けられたデプスセンサ22については、図示を省略している。
なお、本実施形態においては、スマートアイグラス30やHMD32の形態は図1から図3に示す形態に限定されるものではない。例えば、HMD32は、ヘッドバンド型やヘルメット型であってもよく、本実施形態においては、装着時にユーザ20の眼前に位置する表示部(図示省略)を有していれば、その形態については特に限定されるものではない。
さらに、以下の説明においては、透過型ディスプレイを持つスマートアイグラス30を用いた場合を例に挙げて説明する。
(処理装置40)
処理装置40は、ノート型PC(Personal Computer)、タブレット型PC、スマートフォン等であることができ、上述したデプスセンサ22等によって得られたセンサデータを処理したり、上述したスマートアイグラス30において表示する画像を生成したりすることができる。本実施形態においては、機密漏えいを防ぐために、処理装置40は、指定された場所(例えば、工場内)から持ち出すことができないように管理されていることが好ましい。また、処理装置40は、通信網70を介して、上述したデプスセンサ22やスマートアイグラス30との間で情報の送受信を行うことができる。なお、処理装置40の詳細構成については後述する。
(通信網70)
通信網70は、1つ又は複数の工場内等で情報の送受信に利用されるネットワークである。通信網70は、有線又は無線であることができ、例えば、電話回線、衛星通信網等の公衆回線網や、インターネット、専用回線、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、又は、WAN(Wide Area Network)等の任意の通信ネットワークから構成される。さらに、専用回線は、IP−VPN(Internet Protocol‐Virtual Private Network)等から構成されてもよい。なお、本実施形態においては、通信網70は、何らかのセキュリティ手段(例えば、Secure Sockets Layer(SSL)等)が施されていることが好ましい。
なお、本実施形態に係る情報処理システム1においては、カメラ24、加速度センサ26、及び地磁気センサ28が含まれていなくてもよい。
さらに、本実施形態においては、デプスセンサ22、カメラ24、加速度センサ26、地磁気センサ28、スマートアイグラス30、及び処理装置40は、これらの一部又は全部が一体の装置として構成されていてもよい。例えば、デプスセンサ22、スマートアイグラス30、及び処理装置40が一体の装置として構成されている場合には、スタンドアローンで情報処理を行うことが可能な装置であることができる。また、上述の処理装置40は、例えばクラウドコンピューティング等のようなネットワークへの接続を前提とした、複数の装置からなるシステムによって構築されていてもよい。
<処理装置40の詳細構成>
以上、本実施形態に係る情報処理システム1の概要構成を説明した。次に、図4を参照して、本実施形態に係る処理装置40の詳細構成を説明する。図4は、本実施形態に係る処理装置40のブロック図である。
詳細には、処理装置40は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等により実現される。図4に示すように、処理装置40は、位置姿勢計算部(位置関係情報算出部)400、平面投影部402、差分計算部(差分算出部)404、描画計算部406、及び記憶部408を有する。さらに、処理装置40は、図4において図示が省略されているものの、通信部を有する。以下に、本実施形態に係る処理装置40の各ブロックについて説明する。
(位置姿勢計算部400)
位置姿勢計算部400は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算し、計算した位置関係情報を後述する平面投影部402に出力する。
詳細には、位置姿勢計算部400は、デプスセンサ22からセンサデータを取得し、当該センサデータに含まれる深度情報を取得することにより、被対象物10に対するデプスセンサ22の相対距離を取得することができる。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されている。従って、位置姿勢計算部400は、既知であるデプスセンサ22とスマートアイグラス30との間の相対距離の情報を用いることにより、被対象物10に対するデプスセンサ22の相対距離から、被対象物10に対するスマートアイグラス30の相対距離を取得することもできる。
さらに、位置姿勢計算部400は、上記深度情報から被対象物10の特徴点(例えば特徴的な部分の輪郭線)を抽出し、抽出した特徴点を用いることにより、後述する記憶部408に格納されたDataBase(DB)410から、被対象物10に対応する3次元形状の情報である形状情報(例えば、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群)を取得することができる。そして、位置姿勢計算部400は、取得した深度情報と、理想状態の被対象物10の形状情報とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得することができる。また、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、上述と同様に、位置姿勢計算部400は、被対象物10に対するデプスセンサ22の姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の姿勢(向き)の情報も取得することができる。なお、本実施形態においては、上述のような特徴点を用いた方法の代わりに、予め被対象物10に対応する3次元形状の情報である形状情報をユーザ20が選択しておくことにより、位置姿勢計算部400が当該形状情報をDB410から取得できるようにしてもよい。
また、本実施形態においては、位置姿勢計算部400は、被対象物側センサ12からのセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得してもよい。さらに、位置姿勢計算部400は、上述したカメラ24、加速度センサ26、地磁気センサ28等からの画像データ又はセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の推定の精度を高めてもよい。
なお、本実施形態においては、被対象物10に、深度情報における特徴点となるようなマーカを設けてもよく、もしくは、被対象物10に通信タグや赤外線照射装置等を設けてもよい。この場合、位置姿勢計算部400は、被対象物10に設けられたマーカや通信タグ等を利用することにより、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得してもよい。
(平面投影部402)
平面投影部402は、デプスセンサ22によって得られた被対象物10の深度情報、及び、DB410から取得した、理想状態にある被対象物10に対応する3次元情報を、平面に投影することにより、各デプス画像(例えば、図8の実デプス画像802及び理想デプス画像812)を得ることができる。そして、平面投影部402は、取得した各デプス画像を後述する差分計算部404に出力する。
詳細には、平面投影部402は、被対象物10の深度情報に含まれる被対象物10の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、実空間上の被対象物10のデプス画像、すなわち、実デプス画像802(図8 参照)を得ることができる。
なお、本実施形態においては、平面投影部402は、被対象物10に装着された被対象物側センサ12によって得られたセンサデータを取得し、取得したセンサデータを反映させるようにして、実デプス画像802(図8 参照)を生成してもよい。
さらに、平面投影部402は、上述した位置姿勢計算部400によって得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810(図8 参照)を、上記実デプス画像802(図8 参照)に合わせて正規化する。さらに、平面投影部402は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、理想状態にある被対象物10のデプス画像、すなわち、理想デプス画像812(図8 参照)を得ることができる。より詳細には、上記正規化は、上記位置関係情報を用いて、理想状態にある被対象物10のデプスセンサ22までの相対距離及び向き(姿勢)が、実際の被対象物10に対するデプスセンサ22の相対距離及び向き(姿勢)と一致するように、3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を変換することである。そして、平面投影部402は、変換した3次元座標情報群を、実デプス画像802と同様に、被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、理想デプス画像812を得ることができる。
例えば、被対象物10の正面がデプスセンサ22に向いていたことから、被対象物10の正面がまっすぐ画像の前方を向いているような実デプス画像802が得られたものとする。さらに、例えば、理想状態にある被対象物10に対応する3次元情報810をそのまま平面に投影して得られた理想デプス画像812においては、被対象物10の正面は斜めに傾いているものとする。このような場合、実デプス画像802と理想デプス画像812とを比較しても、これらデプス画像において被対象物10の向き(姿勢)が互いに異なることから、被対象物10の現状の状態、すなわち、理想状態に対する被対象物10の現状の状態を正確に把握することができない。そこで、本実施形態においては、平面投影部402により、上述した位置関係情報を用いて、理想状態にある被対象物10に対応する3次元情報810を、実デプス画像802と同様に、被対象物10の正面がまっすぐ画像の前方を向いているように変換することにより、実デプス画像802と理想デプス画像812とにおける被対象物10の向き(姿勢)を同じにする。そして、本実施形態においては、同一の向き(姿勢)になった被対象物10の画像を含む、実デプス画像802と理想デプス画像812とを比較することにより、被対象物10の現状の状態を正確に把握することができるようになる。
また、例えば、デプスセンサ22から被対象物10までの距離が遠い場合には、デプス画像における被対象物10の占める面積は狭くなり、デプスセンサ22から被対象物10までの距離が近い場合には、デプス画像における被対象物10の占める面積は広くなる。そこで、本実施形態においては、上述した姿勢(向き)の正規化と同様に、平面投影部402によって、理想状態にある被対象物10に対応する3次元情報810を相対距離について正規化することにより、実デプス画像802(図8 参照)と理想デプス画像812(図8 参照)とにおける被対象物10の占める大きさを一致させ、実デプス画像802と比較可能な理想デプス画像812を取得する。
(差分計算部404)
差分計算部404は、上述の平面投影部402によって得られた実デプス画像802(図8 参照)と、位置関係情報に基づき変換されることによって得られた理想デプス画像812(図8 参照)とを差分である差分情報(差分画像820、図8 参照)を計算し、計算結果を後述する描画計算部406に出力する。詳細には、差分計算部404は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。この際、差分計算部404は、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理することが好ましい。さらに、差分計算部404は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていない(発生していない)ものとして処理することが好ましい。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを防止することができる。
なお、本実施形態においては、上述したように、差分計算部404は、平面に投影することによって得られた実デプス画像802と理想デプス画像812との差分を計算することに限定されるものではない。例えば、差分計算部404は、デプスセンサ2によって得られた深度情報(3次元座標情報群)と、理想状態の被対象物10の3次元情報810を位置関係情報に基づき変換することによって得られた3次元情報810(3次元座標情報群)との差分を計算してもよい。そして、このような場合、処理装置40は、計算された差分を上述した平面投影部402によって平面に投影することにより、上述した差分画像820を取得してもよい。
(描画計算部406)
描画計算部406は、上述した差分計算部404によって得られた差分情報(差分画像820、図8 参照)を、スマートアイグラス30の表示に合わせた形態になるように変換し、変換した情報をスマートアイグラス30へ送信する。そして、当該スマートアイグラス30は、受信した情報を用いて、被対象物10の実像800(図8 参照)に重畳して、差分画像820を表示することができる。
詳細には、描画計算部406は、上述した位置関係情報、すなわち、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820(図8 参照)に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換する。このようにすることで、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10の実像800(図8 参照)と重畳して表示されることができる。そして、本実施形態においては、差分画像820を実空間上の被対象物10の実像800と重畳して表示することから、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
なお、本実施形態においては、描画計算部406は、被対象物10の実像800(図8 参照)(又は、被対象物10の撮像画像)に対して上記差分画像820(図8 参照)を強調して表示するために、上記差分画像820に対してエフェクト処理を行うエフェクト処理部として機能してもよい。例えば、描画計算部406は、差分画像820が、被対象物10の実像800とは異なる色彩、明度、又は透明度によって表示されるように、上記差分画像820を処理してもよい。この際、描画計算部406は、予めDB410に格納された被対象物10の色彩情報等を利用してもよい。また、描画計算部406は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態(ワイヤーフレーム表示)で表示されるように、差分画像820を処理してもよい。
(記憶部408)
記憶部408は、ROM及びRAM等の記憶装置によって実現され、被対象物10の3次元形状に関する形状情報(3次元座標情報群)をDB410として格納する。具体的には、当該DB410には、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納される。なお、記憶部408は、処理装置40の内部に設けられていなくてもよく、例えば、処理装置40と別体の装置として構成されていてもよい。
なお、処理装置40は、図4に示されるブロックだけを含むことに限定されるものではなく、例えば、本実施形態においては、上述したデプスセンサ22等の間で情報の送受信を行うための通信モジュールである通信部を含んでいてもよい。
<情報処理方法>
以上、本実施形態に係る処理装置40の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図3及び図5から図9を参照して説明する。図5は、本実施形態に係る情報処理方法のフローチャートである。図6は、本実施形態における実空間の実像800の例を説明するための説明図である。図7は、本実施形態における被対象物10の3次元情報810の例を説明するための説明図である。図8は、本実施形態に係る情報処理方法における処理例を説明するための説明図である。さらに、図9は、本実施形態に係る差分画像820を重畳した重畳画像822の一例を説明するための説明図である。
詳細には、本実施形態に係る情報処理方法は、図5のフローチャートに示すように、ステップS101からステップS113までの複数のステップを含むことができる。以下に、本実施形態に係る情報処理方法の各ステップの詳細を説明する。
まずは、図3に示すように、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報を含むセンサデータを取得する。
なお、以下に説明する例においては、工場内(実空間)に設置された被対象物10は、図6に示すように、被対象物10の下部に配置された引出し10aが引き出された状態であり、引出し10aが格納された被対象物10があるべき状態(理想状態)とは異なる状態にあるものとする。また、図6に示すように、以下の例においては、被対象物10の周囲には、本実施形態において処理の対象とならない物体60が存在するものとする。さらに、以下の例においては、記憶部408のDB410には、被対象物10があるべき状態(理想状態)として、図7に示されるような、被対象物10の下部に配置された引出し10aが被対象物10に格納された状態における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納されているものとする。
(ステップS101)
処理装置40は、デプスセンサ22からセンサデータを取得する。この際、ユーザ20には、図8の左側上段に示されるような実像800が見えているものとする。そして、処理装置40は、デプスセンサ22のセンサデータの深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影する。より具体的には、処理装置40は、深度情報を、例えば、実空間上でデプスセンサ22までの相対距離が近い、被対象物10及び物体60の表面の点を濃く、一方、実空間上でデプスセンサ22までの相対距離が遠い、被対象物10及び物体60の表面の点を薄くなるように平面に投影することにより、図8に示すような実デプス画像802を得る。なお、図8に図示する実デプス画像802においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の実デプス画像802においては、グラデーションのみで物体の輪郭や形状が示されている。
(ステップS103)
処理装置40は、デプスセンサ22で取得されたセンサデータ(深度情報)を用いて、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。詳細には、処理装置40は、例えば、上記センサデータの深度情報から被対象物10の特徴点を抽出し、抽出した特徴点を用いることにより、記憶部408に格納されたDB410から、被対象物10に対応する3次元情報810を抽出し、特徴点と3次元情報810とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得する。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、処理装置40は、被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の相対距離及び姿勢(向き)の情報も取得することができる。
さらに、本実施形態においては、処理装置40は、上述したカメラ24、加速度センサ26、地磁気センサ28等からの画像データ又はセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の推定の精度を高めてもよい。もしくは、本実施形態においては、被対象物10等に、深度情報における特徴点となるようなマーカを設けてもよく、もしくは、被対象物10等に通信タグや赤外線照射装置等を設けてもよい。この場合、処理装置40は、被対象物10等に設けられたマーカや通信タグ等を利用することにより、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得することができる。
(ステップS105)
処理装置40は、上述したステップS103で得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を、3次元情報810に含まれる被対象物10のデプスセンサ22までの相対距離及び姿勢(向き)が、実際の被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)と一致するように、変換(正規化)する。さらに、処理装置40は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、図8に示す理想デプス画像812を作成する。なお、図8に図示する理想デプス画像812においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の理想デプス画像812においては、グラデーションのみで物体の輪郭や形状が示されている。
(ステップS107)
処理装置40は、上述のステップS101で得られた実デプス画像802と、上述のステップS105で得られた理想デプス画像812とを差分である、図8に示される差分画像820を計算する。詳細には、処理装置40は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。差分画像820においては、例えば、差分が大きいものを明るく表示し、差分のないものを暗く表示してもよい。
この際、処理装置40は、先に説明したように、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理する。さらに、処理装置40は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていないものとして処理する。従って、図8における差分画像820においては、物体60の存在により実デプス画像802と理想デプス画像812とにおいて差分が生じているものの、物体60は、本実施形態において処理の対象とならないことから、物体60の存在による差分は、差分でないものとして処理されることとなる。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを避けることができる。
(ステップS109)
処理装置40は、上述したステップS103で取得した、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換し、重畳表示するための表示(描画図)を作成する。このようにすることで、本実施形態においては、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10に実像800と重畳して表示されることができる。
(ステップS111)
処理装置40は、被対象物10の実像800に対して上記差分画像820を強調して表示するために、上記差分画像820に対してエフェクト処理を行う。例えば、処理装置40は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態で表示されるように、差分画像820に対してエフェクト処理を行う。なお、本実施形態においては、当該ステップS111の実施は省略されてもよい。
(ステップS113)
処理装置40は、スマートアイグラス30を制御して、上述のように処理された差分画像820を、実空間上の被対象物10の実像800に重畳して表示する。例えば、処理装置40は、図8に示すような重畳画像822をスマートアイグラス30に表示する。本実施形態においては、上記差分画像820を被対象物10の実像800に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
また、エフェクト処理を行った場合には、例えば、図9に示されるように、実デプス画像802と理想デプス画像812との差分である引出し10aの部分がワイヤーフレーム830で表現され、当該ワイヤーフレーム830が実空間上の被対象物10の実像800と重畳して表示される。本実施形態においては、差分画像820をワイヤーフレーム830で描画することにより、差分画像820を、被対象物10の実像800又は撮像画像を覆い隠すことなく表示できることから、ユーザ20は、被対象物10の状態をより容易に把握することができるようになる。
なお、スマートアイグラス30の代わりに、非透過型ディスプレイを用いたHMD32が使用された場合には、HMD32は、HMD32の外向きカメラ34で撮像された実空間上の被対象物10の撮像画像に重畳して、差分画像820を表示することとなる。
以上のように、本発明の第1の実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800に重畳して表示することができることから、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。従って、本実施形態によれば、例えば、被対象物10に装着すべき被対象物側センサ12の数が不足していたり、適切な位置に被対象物側センサ12が装着されていなかったりした場合であっても、被対象物10の状態を把握することができる。その結果、例えば、被対象物側センサ12の不足の洗い出しや設置漏れの検知が容易となり、さらには、被対象物側センサ12の故障等の検知も容易となる。
さらに、本実施形態においては、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。
<<第2の実施形態>>
上述した本発明の第1の実施形態においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、保守作業を行う場合を例に説明した。しかしながら、被対象物10の保守作業の内容によっては、工場内のユーザ20に対して、工場の外部からの支援が必要となり、工場の外部にいる他のユーザが被対象物10の状態を把握することが求められることがある。さらに、工場の外部にいる他のユーザが被対象物10の状態を把握することにより、保守作業の効率化(作業時間の短縮化等)が図れる場合がある。そこで、このような場合であっても、機密漏えいを防止しつつ、対象機器である被対象物10の現状の状態を直感的に把握することができる、本発明の第2の実施形態を説明する。
<処理装置50の詳細構成>
本実施形態に係る情報処理システム1は、図1に示される本発明の第1の実施形態に係る情報処理システム1に、さらに処理装置50が含まれる。そこで、図10を参照して、処理装置50の詳細構成を説明する。図10は、本発明の第2の実施形態に係る処理装置40、50のブロック図である。なお、本実施形態においては、処理装置50以外の情報処理システム1に含まれる各装置の詳細構成は、上述した第1の実施形態と共通するため、ここではこれらの説明を省略する。
処理装置50は、デスクトップ型PC、ノート型PC、タブレット端末、スマートフォン等によって実現され、処理装置40とは異なり、被対象物10が存在する工場内以外の場所に設置されている、すなわち、被対象物10から離れた場所に設置されているものとする。さらに、処理装置50は、通信網70を介して、上述した処理装置40との間で情報の送受信を行うことができる。
詳細には、処理装置50は、処理装置40と同様に、CPU、RAM、ROM、表示装置等により実現される。図10に示すように、処理装置50は、平面投影部502、差分計算部504、描画計算部506、及びディスプレイ508を主に有する。以下に、本実施形態に係る処理装置50の各ブロックについて説明する。なお、処理装置50の有する平面投影部502、差分計算部504及び描画計算部506は、同一の名称を持つ、処理装置40の平面投影部402、差分計算部404及び描画計算部406と同様の機能を持つため、ここではこれらのブロックの説明を省略し、ディスプレイ508のみを説明する。
(ディスプレイ508)
ディスプレイ508は、工場の外部に存在する他のユーザ(ユーザ20以外のユーザ)に対して、差分画像820を被対象物10の撮像画像に重畳して表示する表示装置であり、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等の表示装置により実現される。
なお、処理装置50は、図10に示されるブロックだけを含むことに限定されるものではなく、例えば、本実施形態においては、上述した処理装置40との間で情報の送受信を行うための通信モジュールである通信部を含んでいてもよい。
<情報処理方法>
以上、本実施形態に係る処理装置50の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図11及び図12を参照して説明する。図11は、本実施形態に係る情報処理方法のシーケンス図であり、図12は、本実施形態に係る表示画像840の一例を説明するための説明図である。
詳細には、本実施形態に係る情報処理方法は、図11のシーケンス図に示すように、ステップS201からステップS219までの複数のステップを含むことができる。以下に、本実施形態に係る情報処理方法の各ステップの詳細を説明する。
(ステップS201)
上述した第1の実施形態に係る情報処理方法と同様に、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報をセンシングする。
なお、以下に説明する例においても、工場内(実空間)に設置された被対象物10は、図6に示すように、被対象物10の下部に配置された引出し10aが引き出された状態であり、引出し10aが格納された被対象物10があるべき状態(理想状態)とは異なる状態にあるものとする。また、以下の例においても、被対象物10の周囲には、本実施形態において処理の対象とならない物体60が存在するものとする。さらに、以下の例においても、記憶部408のDB410には、被対象物10があるべき状態(理想状態)として、図7に示されるような、被対象物10の下部に配置された引出し10aが被対象物10に格納された状態における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納されているものとする。
(ステップS203)
当該ステップS203は、図5に示される第1の実施形態のステップS101と同じであるため、ここでは説明を省略する。
(ステップS205)
当該ステップS205は、図5に示される第1の実施形態のステップS103と同じであるため、詳細な説明を省略するが、処理装置40は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。さらに、処理装置40は、計算した位置関係情報を、通信網70を介して処理装置50へ送信する。
(ステップS207)
処理装置50は、通信網70を介して、デプスセンサ22から深度情報を含むセンサデータを取得し、当該深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影し、図8に示すような実デプス画像802を作成する。
さらに、処理装置50は、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)から、カメラ24によって撮像された被対象物10の撮像画像データを取得する。なお、本実施形態においては、処理装置50において、カメラ24によって撮像された被対象物10の撮像画像データに、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。
(ステップS209)
処理装置50は、処理装置40から通信網70を介して、上述のステップS205において、処理装置40で計算された被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を取得する。
(ステップS211)
当該ステップS211は、処理装置40で取得した位置関係情報を用いて処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS105と同じであるため、ここでは説明を省略する。
(ステップS213)
当該ステップS213は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS107と同じであるため、ここでは説明を省略する。
(ステップS215)
当該ステップS215は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS109と同じであるため、ここでは説明を省略する。
(ステップS217)
当該ステップS217は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS111と同じであるため、ここでは説明を省略する。
(ステップS219)
処理装置50は、ディスプレイ508を制御して、差分画像820を、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)によって撮像された被対象物10の撮像画像に重畳して表示する。例えば、処理装置50は、図12に示すような表示画像840をディスプレイ508に表示する。当該表示画像840においては、実デプス画像802と理想デプス画像812との差分である、引出し10aの部分の差分画像820が被対象物10の撮像画像に対して強調して表示されることが好ましい。本実施形態においては、このような差分画像820を被対象物10の撮像画像に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
なお、本実施形態においては、表示画像840には、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように、マスクをかける等の処理を行った後に表示することが好ましい。従って、図12に示す表示画像840においては、被対象物10の周囲に存在する物体60が表示されていない。
以上のように、本発明の第2の実施形態においては、上述した第1の実施形態と同様に、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の撮像画像に重畳して表示することができることから、工場の外部にいるユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。
さらに、本実施形態においても、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。加えて、本実施形態においては、工場の外部にいるユーザに向けて表示される表示画像840には、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように処理を行った後に表示していることから、被対象物10の周囲に存在する機器の情報である機密情報が工場の外部に存在するユーザに漏洩することがない。
なお、上述の説明においては、処理装置50において、平面投影してデプス画像を取得したり、差分画像820を取得したりするものとして説明したが、本実施形態においては、これに限定されるものではなく、処理装置40においてこれらの処理を行った後に処理データを処理装置50へ送信し、処理装置50のディスプレイ508に表示させてもよい。このようにすることで、処理装置50における処理の負荷を低減することができる。
また、本実施形態は、ユーザ20の代わりに、工場内を移動することができる自走型ロボット等にデプスセンサ22等を装着して利用することによっても、実施することができる。
<<まとめ>>
以上のように、本発明の各実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800又は撮像画像に重畳して表示することができることから、ユーザ20又は他のユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。
さらに、本発明の各実施形態においては、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本発明の各実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。
また、本発明に各実施形態においては、差分画像820を重畳表示するだけでなく、被対象物側センサ12から得られたセンサデータ並びにDB410に格納された被対象物10の形状情報を利用して生成した画像も併せて重畳表示してもよい。このようにすることで、ユーザ20又は屋のユーザは、被対象物10の状態の把握をより容易にすることができる。この際、差分画像820をワイヤーフレーム830で描画することが好ましく、このようにすることで、差分画像820を、被対象物10の実像800又は撮像画像を覆い隠すことなく表示することができる。
なお、先に説明したように、本発明の各実施形態は、工場、金融機関、データセンサ、各種インフラ設備が設置された工場や事業場等において、機器や設備等の設置や保守を支援するために用いることができる。
さらに、本発明の各実施形態は、上述した利用に限定されるものではなく、他の用途にも利用することができる。例えば、本実施形態によれば、被対象物10を機器等ではなく、人物とした場合に、所定の場所における人物の通過状況や、人物の向き(姿勢)を検知し、検知した人物の輪郭を差分画像820として所定の場所の撮像画像に重畳して表示することができる。より具体的には、本実施形態を利用することにより、建物内の廊下の通過状況や、公共交通機関の改札における利用客の流れや混雑状況を把握するための表示を行うことができる。この際、本実施形態においては、人物(上述の実施形態では被対象物10)の状態を把握するための情報として、デプスセンサ22によって取得された深度情報を用いることから、人物の存在や向き(姿勢)については把握できるものの、人物を特定するための詳細な顔の情報等を取得することが難しい。その結果、本実施形態によれば、通行する人物のプライバシーを守りつつ、建物内の防犯や改札の混雑状況を容易に把握することができる。
<<ハードウェア構成>>
以上、本発明の各実施形態について説明した。続いて、本発明の各実施形態に係るハードウェア構成について説明する。図13は、本発明の実施形態に係る処理装置40(処理装置50)である情報処理装置900のハードウェア構成例を示したブロック図である。情報処理装置900は、CPU902と、ROM904と、RAM906とを有する。また、情報処理装置900は、入力部908と、出力部910と、ストレージ装置912と、ネットワークインタフェース914とを有する。以下に、当該情報処理装置900の各ハードウェアブロックについて説明する。
(CPU902、ROM904、RAM906)
CPU902は、演算処理装置として機能し、各種プログラムに従って処理装置40である情報処理装置900内の動作全般を制御する。また、CPU902は、マイクロプロセッサであってもよい。ROM904は、CPU902が使用するプログラムや演算パラメータ等を記憶する。RAM906は、CPU902の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス916により相互に接続されている。CPU902、ROM904及びRAM906は、ソフトウェアとの協働により図4を参照して説明した、処理装置40の位置姿勢計算部400等の機能を実現し得る。
(入力部908)
入力部908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU902に出力する入力制御回路などから構成されている。ユーザは、当該入力部908を操作することにより、処理装置40に対して各種のデータを入力したり処理動作を指示したりすることができる。
(出力部910)
出力部910は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部910は、上述のスマートアイグラス30等を含んでもよい。
(ストレージ装置912)
ストレージ装置912は、データ格納用の装置である。ストレージ装置912は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置912は、例えば、ROM、HDD又はSSD(Solid Strage Drive)等で構成される。このストレージ装置912は、ストレージを駆動し、CPU902が実行するプログラムや各種データを格納する。
(ネットワークインタフェース914)
ネットワークインタフェース914は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。当該通信インタフェースは、例えば、Bluetooth(登録商標)又はZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi−Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースであることができる。また、ネットワークインタフェース914は、有線による通信を行う有線通信装置を含んでいてもよい。
以上、本発明の実施形態に係る処理装置40である情報処理装置900のハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<<補足>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
また、上述した本発明の実施形態における情報処理方法は、必ずしも記載された順序に沿って動作又は処理されなくてもよい。例えば、各動作のステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの動作方法又は処理方法についても、必ずしも記載された方法に沿って動作又は処理されなくてもよく、例えば、他の機能部によって他の方法で動作又は処理されていてもよい。
さらに、上述の本発明の実施形態に係る情報処理方法の少なくとも一部は、コンピュータを機能させる情報処理プログラムとして、ソフトウェアで構成することが可能であり、ソフトウェアで構成する場合には、上記動作又は処理の少なくとも一部を実現するプログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)等の記録媒体に収納し、処理装置40等、もしくは、処理装置40等と接続された他の装置に読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。さらに、上記情報処理方法の少なくとも一部を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
1 情報処理システム
10 被対象物
10a 引出し
12 被対象物側センサ
20 ユーザ
22 デプスセンサ
24 カメラ
26 加速度センサ
28 地磁気センサ
30 スマートアイグラス
32 HMD
34 外向きカメラ
40、50 処理装置
60 物体
70 通信網
400 位置姿勢計算部
402、502 平面投影部
404、504 差分計算部
406、506 描画計算部
408 記憶部
410 DB
508 ディスプレイ
800 実像
802 実デプス画像
810 3次元情報
812 理想デプス画像
820 差分画像
822 重畳画像
830 ワイヤーフレーム
840 表示画像
900 情報処理装置
902 CPU
904 ROM
906 RAM
908 入力部
910 出力部
912 ストレージ装置
914 ネットワークインタフェース
916 ホストバス

Claims (15)

  1. 実空間上にある被対象物の深度情報を取得するセンサ部と、
    前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
    前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、
    前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、
    算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する表示部と、
    を備える情報処理装置。
  2. 前記被対象物の実像又は前記被対象物の撮像画像に対して前記差分情報を強調して表示するために、前記差分情報に対してエフェクト処理を行うエフェクト処理部をさらに備える、
    請求項1に記載の情報処理装置。
  3. 前記エフェクト処理部は、前記差分情報が、前記被対象物の実像又は前記被対象物の撮像画像とは異なる色彩、明度、又は透明度によって表示されるように、前記差分情報を処理する、請求項2に記載の情報処理装置。
  4. 前記エフェクト処理部は、前記差分情報がワイヤーフレーム表示されるように、前記差分情報を処理する、請求項2に記載の情報処理装置。
  5. 前記センサ部は、前記被対象物に対して照射光を照射し、当該被対象物で反射された反射光を受光し、前記照射光と前記反射光との位相差又は時間差を検知することで、前記深度情報を取得するデプスセンサである、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記センサ部は、複数のカメラにより前記被対象物を撮像して、前記深度情報を取得するステレオカメラである、請求項1〜4のいずれか1項に記載の情報処理装置。
  7. 前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の実像に重畳して表示するスマートアイグラスである、請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の撮像画像に重畳して表示するヘッドマウントディスプレイである、請求項1〜6のいずれか1項に記載の情報処理装置。
  9. 前記被対象物を撮像する撮像部をさらに備える、請求項8に記載の情報処理装置。
  10. 前記被対象物又は前記ユーザに装着された加速度センサ及び地磁気センサのうちの少なくとも1つを備え、
    前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出する、
    請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記形状情報及び前記深度情報を平面に投影する平面投影部をさらに備え、
    前記差分算出部は、平面に投影された前記形状情報と、平面に投影された前記深度情報との差分である前記差分情報を算出する、
    請求項1〜10のいずれか1項に記載の情報処理装置。
  12. 前記差分算出部は、前記深度情報において深度が無限遠となる領域に関しては、差分が発生していないものとして処理を行う、請求項1〜11のいずれか1項に記載の情報処理装置。
  13. 実空間上にある被対象物の深度情報を取得するセンサ部と、
    前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
    前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、
    前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、
    算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する表示部と、
    を備える情報処理システム。
  14. センサ部から実空間上にある被対象物の深度情報を取得し、
    前記実空間における前記センサ部と前記被対象物との位置関係情報を算出し、
    予め格納された前記被対象物の3次元形状に関する形状情報を前記位置関係情報に基づき変換し、変換された前記形状情報と、前記深度情報との差分である差分情報を算出し、
    算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する、
    ことを含む情報処理方法。
  15. コンピュータに
    センサ部から実空間上にある被対象物の深度情報を取得する機能と、
    前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する機能と、
    予め格納された前記被対象物の3次元形状に関する形状情報を前記位置関係情報に基づき変換し、変換された前記形状情報と、前記深度情報との差分である差分情報を算出する機能と、
    算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する機能と、
    を実現させるプログラム。
JP2018047120A 2018-03-14 2018-03-14 情報処理装置、情報処理システム、情報処理方法及びプログラム Active JP7000935B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018047120A JP7000935B2 (ja) 2018-03-14 2018-03-14 情報処理装置、情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047120A JP7000935B2 (ja) 2018-03-14 2018-03-14 情報処理装置、情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019159942A true JP2019159942A (ja) 2019-09-19
JP7000935B2 JP7000935B2 (ja) 2022-01-19

Family

ID=67993475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047120A Active JP7000935B2 (ja) 2018-03-14 2018-03-14 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7000935B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352224A (ja) * 2001-05-29 2002-12-06 Topcon Corp 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム
JP2011039646A (ja) * 2009-08-07 2011-02-24 Sony Corp 画像処理装置および方法、並びにプログラム
JP2016099633A (ja) * 2014-11-18 2016-05-30 三菱電機株式会社 携帯端末を利用した保全点検システム
JP2017138743A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017184136A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2017182340A (ja) * 2016-03-29 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017191351A (ja) * 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352224A (ja) * 2001-05-29 2002-12-06 Topcon Corp 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム
JP2011039646A (ja) * 2009-08-07 2011-02-24 Sony Corp 画像処理装置および方法、並びにプログラム
JP2016099633A (ja) * 2014-11-18 2016-05-30 三菱電機株式会社 携帯端末を利用した保全点検システム
JP2017138743A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017182340A (ja) * 2016-03-29 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017184136A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2017191351A (ja) * 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法

Also Published As

Publication number Publication date
JP7000935B2 (ja) 2022-01-19

Similar Documents

Publication Publication Date Title
KR102366293B1 (ko) 디지털 트윈을 이용한 증강현실 기반 현장 모니터링 시스템 및 방법
KR102289745B1 (ko) 실시간 현장 작업 모니터링 방법 및 시스템
US11747915B2 (en) Smart ring for manipulating virtual objects displayed by a wearable device
US11277597B1 (en) Marker-based guided AR experience
US11302077B2 (en) Augmented reality guidance that generates guidance markers
US20210405772A1 (en) Augmented reality eyewear 3d painting
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11089427B1 (en) Immersive augmented reality experiences using spatial audio
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
US11915453B2 (en) Collaborative augmented reality eyewear with ego motion alignment
US11263818B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
WO2022005946A1 (en) Augmented reality experiences using social distancing
WO2021252242A2 (en) Augmented reality environment enhancement
US20190369807A1 (en) Information processing device, information processing method, and program
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20240004197A1 (en) Dynamic sensor selection for visual inertial odometry systems
JP7000935B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US11442268B2 (en) Augmented reality gaming using virtual eyewear beams
KR102538056B1 (ko) 증강현실을 이용한 건물 관리 시스템
KR20230163055A (ko) 대상체 탐지 시스템, 장치 및 방법

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 7000935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150