JP2019159942A - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2019159942A JP2019159942A JP2018047120A JP2018047120A JP2019159942A JP 2019159942 A JP2019159942 A JP 2019159942A JP 2018047120 A JP2018047120 A JP 2018047120A JP 2018047120 A JP2018047120 A JP 2018047120A JP 2019159942 A JP2019159942 A JP 2019159942A
- Authority
- JP
- Japan
- Prior art keywords
- information
- difference
- depth
- image
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
まずは、本発明の実施形態の具体的な説明に先立ち、本発明者が本発明の実施形態をなすに至った経緯について説明する。
<情報処理システム1の概要>
まずは、本発明の第1の実施形態に係る情報処理システム1の概要について、図1から図3を参照して説明する。なお、図1は、本実施形態に係る情報処理システム1の概要について説明するための説明図である。図2は、本実施形態に係るHMD(Head Mounted Display(ヘッドマウントディスプレイ))32の一例を説明するための説明図である。さらに、図3は、本実施形態に係るスマートアイグラス30の使用の一例を説明するための説明図である。
被対象物側センサ12は、本実施形態における被対象物10である、工場の内部に設置された機器や設備等に装着されたセンサである。詳細には、被対象物側センサ12は、被対象物10である対象機器の開閉を検知するリードスイッチ等といった、被対象物10の状態等を検知するためのセンサ群を含むことができる。なお、本実施形態においては、被対象物側センサ12は、被対象物10である機器に予め備えつけられているセンサであってもよく、もしくは、被対象物10である機器に後付されたセンサであってもよく、特に限定されるものではない。
デプスセンサ22は、Light Detection and Ranging、Laser Imaging Detection and Ranging(LIDAR)を利用したセンサである。言い換えると、デプスセンサ22は、光を利用して、実空間上におけるデプスセンサ22から対象となる物体(本実施形態においては被対象物10)の表面の各点との距離を計測することができるセンサである。詳細には、デプスセンサ22は、例えば、被対象物10に所定の周期を持つパルス状のレーザ光等(照射光)を照射し、被対象物10の表面で反射された光(反射光)を受光することにより、上記照射光と上記反射光との位相差又は時間差によって、被対象物10の輪郭や、被対象物10の表面の凹凸等の情報である深度情報を取得することができる。
カメラ24は、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等を撮像する撮像装置であって、被対象物10で反射される光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより画像を取得することができる。詳細には、カメラ24は、光を集光する撮影レンズ及びズームレンズなどの撮像光学系、及び、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有することができる。また、カメラ24は、当該カメラ24が取得した画像データを後述する通信網70を介して処理装置40に送信することもできる。当該処理装置40は、カメラ24からの画像データを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
加速度センサ26は、例えば、3軸加速度センサにより実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等の運動による加速度を検知する。加速度センサ26は、加速度センサ26が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、加速度センサ26からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30の位置関係を示す位置関係情報を計算してもよい。さらに、加速度センサ26には、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着されたジャイロセンサ(図示省略)が含まれていてもよく、加速度センサ26は、例えば、3軸ジャイロセンサにより実現され、被対象物10等の運動による角速度(回転速度)を検知する。
地磁気センサ28は、例えば、3軸地磁気センサ(コンパス)により実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等に装着され、絶対方向(方位)を検知する。なお、ここで、絶対方位とは、実空間における世界座標系(東西南北)における方位のことをいう。地磁気センサ28は、地磁気センサ28が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、地磁気センサ28からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
スマートアイグラス30は、図1に示されるように、ユーザ20の頭部に装着される眼鏡型のHMDである。スマートアイグラス30は、装着時にユーザ20の眼前に位置する眼鏡レンズ部分に相当する表示部(図示省略)を持ち、当該表示部は、眼鏡レンズ部分の外側を視認することができる透過型ディスプレイにより実現される。当該表示部が透過型ディスプレイであることから、スマートアイグラス30は、ユーザ20の周囲の実空間上の物体(本実施形態においては被対象物10)の実像800(例えば、図8 参照)に重畳して、画像を当該ユーザ20に向けて表示することができる。このような透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いた透明な導光部等からなる虚像光学系がユーザ20の眼前に保持されることにより、当該虚像光学系の内側に画像を結像させ、ユーザ20に向けて当該画像を表示することができる。以下の説明においては、透過型ディスプレイの表示部を持つHMDを「スマートアイグラス」と呼ぶものとする。さらに、スマートアイグラス30は、後述する処理装置40からの情報を、通信網70を介して受信することができる。なお、先に説明したように、図1及び図3に示すように、スマートアイグラス30は、デプスセンサ22と一体の装置となっていることが好ましい。
処理装置40は、ノート型PC(Personal Computer)、タブレット型PC、スマートフォン等であることができ、上述したデプスセンサ22等によって得られたセンサデータを処理したり、上述したスマートアイグラス30において表示する画像を生成したりすることができる。本実施形態においては、機密漏えいを防ぐために、処理装置40は、指定された場所(例えば、工場内)から持ち出すことができないように管理されていることが好ましい。また、処理装置40は、通信網70を介して、上述したデプスセンサ22やスマートアイグラス30との間で情報の送受信を行うことができる。なお、処理装置40の詳細構成については後述する。
通信網70は、1つ又は複数の工場内等で情報の送受信に利用されるネットワークである。通信網70は、有線又は無線であることができ、例えば、電話回線、衛星通信網等の公衆回線網や、インターネット、専用回線、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、又は、WAN(Wide Area Network)等の任意の通信ネットワークから構成される。さらに、専用回線は、IP−VPN(Internet Protocol‐Virtual Private Network)等から構成されてもよい。なお、本実施形態においては、通信網70は、何らかのセキュリティ手段(例えば、Secure Sockets Layer(SSL)等)が施されていることが好ましい。
以上、本実施形態に係る情報処理システム1の概要構成を説明した。次に、図4を参照して、本実施形態に係る処理装置40の詳細構成を説明する。図4は、本実施形態に係る処理装置40のブロック図である。
位置姿勢計算部400は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算し、計算した位置関係情報を後述する平面投影部402に出力する。
平面投影部402は、デプスセンサ22によって得られた被対象物10の深度情報、及び、DB410から取得した、理想状態にある被対象物10に対応する3次元情報を、平面に投影することにより、各デプス画像(例えば、図8の実デプス画像802及び理想デプス画像812)を得ることができる。そして、平面投影部402は、取得した各デプス画像を後述する差分計算部404に出力する。
差分計算部404は、上述の平面投影部402によって得られた実デプス画像802(図8 参照)と、位置関係情報に基づき変換されることによって得られた理想デプス画像812(図8 参照)とを差分である差分情報(差分画像820、図8 参照)を計算し、計算結果を後述する描画計算部406に出力する。詳細には、差分計算部404は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。この際、差分計算部404は、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理することが好ましい。さらに、差分計算部404は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていない(発生していない)ものとして処理することが好ましい。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを防止することができる。
描画計算部406は、上述した差分計算部404によって得られた差分情報(差分画像820、図8 参照)を、スマートアイグラス30の表示に合わせた形態になるように変換し、変換した情報をスマートアイグラス30へ送信する。そして、当該スマートアイグラス30は、受信した情報を用いて、被対象物10の実像800(図8 参照)に重畳して、差分画像820を表示することができる。
記憶部408は、ROM及びRAM等の記憶装置によって実現され、被対象物10の3次元形状に関する形状情報(3次元座標情報群)をDB410として格納する。具体的には、当該DB410には、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納される。なお、記憶部408は、処理装置40の内部に設けられていなくてもよく、例えば、処理装置40と別体の装置として構成されていてもよい。
以上、本実施形態に係る処理装置40の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図3及び図5から図9を参照して説明する。図5は、本実施形態に係る情報処理方法のフローチャートである。図6は、本実施形態における実空間の実像800の例を説明するための説明図である。図7は、本実施形態における被対象物10の3次元情報810の例を説明するための説明図である。図8は、本実施形態に係る情報処理方法における処理例を説明するための説明図である。さらに、図9は、本実施形態に係る差分画像820を重畳した重畳画像822の一例を説明するための説明図である。
処理装置40は、デプスセンサ22からセンサデータを取得する。この際、ユーザ20には、図8の左側上段に示されるような実像800が見えているものとする。そして、処理装置40は、デプスセンサ22のセンサデータの深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影する。より具体的には、処理装置40は、深度情報を、例えば、実空間上でデプスセンサ22までの相対距離が近い、被対象物10及び物体60の表面の点を濃く、一方、実空間上でデプスセンサ22までの相対距離が遠い、被対象物10及び物体60の表面の点を薄くなるように平面に投影することにより、図8に示すような実デプス画像802を得る。なお、図8に図示する実デプス画像802においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の実デプス画像802においては、グラデーションのみで物体の輪郭や形状が示されている。
処理装置40は、デプスセンサ22で取得されたセンサデータ(深度情報)を用いて、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。詳細には、処理装置40は、例えば、上記センサデータの深度情報から被対象物10の特徴点を抽出し、抽出した特徴点を用いることにより、記憶部408に格納されたDB410から、被対象物10に対応する3次元情報810を抽出し、特徴点と3次元情報810とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得する。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、処理装置40は、被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の相対距離及び姿勢(向き)の情報も取得することができる。
処理装置40は、上述したステップS103で得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を、3次元情報810に含まれる被対象物10のデプスセンサ22までの相対距離及び姿勢(向き)が、実際の被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)と一致するように、変換(正規化)する。さらに、処理装置40は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、図8に示す理想デプス画像812を作成する。なお、図8に図示する理想デプス画像812においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の理想デプス画像812においては、グラデーションのみで物体の輪郭や形状が示されている。
処理装置40は、上述のステップS101で得られた実デプス画像802と、上述のステップS105で得られた理想デプス画像812とを差分である、図8に示される差分画像820を計算する。詳細には、処理装置40は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。差分画像820においては、例えば、差分が大きいものを明るく表示し、差分のないものを暗く表示してもよい。
処理装置40は、上述したステップS103で取得した、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換し、重畳表示するための表示(描画図)を作成する。このようにすることで、本実施形態においては、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10に実像800と重畳して表示されることができる。
処理装置40は、被対象物10の実像800に対して上記差分画像820を強調して表示するために、上記差分画像820に対してエフェクト処理を行う。例えば、処理装置40は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態で表示されるように、差分画像820に対してエフェクト処理を行う。なお、本実施形態においては、当該ステップS111の実施は省略されてもよい。
処理装置40は、スマートアイグラス30を制御して、上述のように処理された差分画像820を、実空間上の被対象物10の実像800に重畳して表示する。例えば、処理装置40は、図8に示すような重畳画像822をスマートアイグラス30に表示する。本実施形態においては、上記差分画像820を被対象物10の実像800に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
上述した本発明の第1の実施形態においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、保守作業を行う場合を例に説明した。しかしながら、被対象物10の保守作業の内容によっては、工場内のユーザ20に対して、工場の外部からの支援が必要となり、工場の外部にいる他のユーザが被対象物10の状態を把握することが求められることがある。さらに、工場の外部にいる他のユーザが被対象物10の状態を把握することにより、保守作業の効率化(作業時間の短縮化等)が図れる場合がある。そこで、このような場合であっても、機密漏えいを防止しつつ、対象機器である被対象物10の現状の状態を直感的に把握することができる、本発明の第2の実施形態を説明する。
本実施形態に係る情報処理システム1は、図1に示される本発明の第1の実施形態に係る情報処理システム1に、さらに処理装置50が含まれる。そこで、図10を参照して、処理装置50の詳細構成を説明する。図10は、本発明の第2の実施形態に係る処理装置40、50のブロック図である。なお、本実施形態においては、処理装置50以外の情報処理システム1に含まれる各装置の詳細構成は、上述した第1の実施形態と共通するため、ここではこれらの説明を省略する。
ディスプレイ508は、工場の外部に存在する他のユーザ(ユーザ20以外のユーザ)に対して、差分画像820を被対象物10の撮像画像に重畳して表示する表示装置であり、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等の表示装置により実現される。
以上、本実施形態に係る処理装置50の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図11及び図12を参照して説明する。図11は、本実施形態に係る情報処理方法のシーケンス図であり、図12は、本実施形態に係る表示画像840の一例を説明するための説明図である。
上述した第1の実施形態に係る情報処理方法と同様に、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報をセンシングする。
当該ステップS203は、図5に示される第1の実施形態のステップS101と同じであるため、ここでは説明を省略する。
当該ステップS205は、図5に示される第1の実施形態のステップS103と同じであるため、詳細な説明を省略するが、処理装置40は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。さらに、処理装置40は、計算した位置関係情報を、通信網70を介して処理装置50へ送信する。
処理装置50は、通信網70を介して、デプスセンサ22から深度情報を含むセンサデータを取得し、当該深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影し、図8に示すような実デプス画像802を作成する。
処理装置50は、処理装置40から通信網70を介して、上述のステップS205において、処理装置40で計算された被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を取得する。
当該ステップS211は、処理装置40で取得した位置関係情報を用いて処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS105と同じであるため、ここでは説明を省略する。
当該ステップS213は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS107と同じであるため、ここでは説明を省略する。
当該ステップS215は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS109と同じであるため、ここでは説明を省略する。
当該ステップS217は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS111と同じであるため、ここでは説明を省略する。
処理装置50は、ディスプレイ508を制御して、差分画像820を、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)によって撮像された被対象物10の撮像画像に重畳して表示する。例えば、処理装置50は、図12に示すような表示画像840をディスプレイ508に表示する。当該表示画像840においては、実デプス画像802と理想デプス画像812との差分である、引出し10aの部分の差分画像820が被対象物10の撮像画像に対して強調して表示されることが好ましい。本実施形態においては、このような差分画像820を被対象物10の撮像画像に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
以上のように、本発明の各実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800又は撮像画像に重畳して表示することができることから、ユーザ20又は他のユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。
以上、本発明の各実施形態について説明した。続いて、本発明の各実施形態に係るハードウェア構成について説明する。図13は、本発明の実施形態に係る処理装置40(処理装置50)である情報処理装置900のハードウェア構成例を示したブロック図である。情報処理装置900は、CPU902と、ROM904と、RAM906とを有する。また、情報処理装置900は、入力部908と、出力部910と、ストレージ装置912と、ネットワークインタフェース914とを有する。以下に、当該情報処理装置900の各ハードウェアブロックについて説明する。
CPU902は、演算処理装置として機能し、各種プログラムに従って処理装置40である情報処理装置900内の動作全般を制御する。また、CPU902は、マイクロプロセッサであってもよい。ROM904は、CPU902が使用するプログラムや演算パラメータ等を記憶する。RAM906は、CPU902の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス916により相互に接続されている。CPU902、ROM904及びRAM906は、ソフトウェアとの協働により図4を参照して説明した、処理装置40の位置姿勢計算部400等の機能を実現し得る。
入力部908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU902に出力する入力制御回路などから構成されている。ユーザは、当該入力部908を操作することにより、処理装置40に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力部910は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部910は、上述のスマートアイグラス30等を含んでもよい。
ストレージ装置912は、データ格納用の装置である。ストレージ装置912は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置912は、例えば、ROM、HDD又はSSD(Solid Strage Drive)等で構成される。このストレージ装置912は、ストレージを駆動し、CPU902が実行するプログラムや各種データを格納する。
ネットワークインタフェース914は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。当該通信インタフェースは、例えば、Bluetooth(登録商標)又はZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi−Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースであることができる。また、ネットワークインタフェース914は、有線による通信を行う有線通信装置を含んでいてもよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 被対象物
10a 引出し
12 被対象物側センサ
20 ユーザ
22 デプスセンサ
24 カメラ
26 加速度センサ
28 地磁気センサ
30 スマートアイグラス
32 HMD
34 外向きカメラ
40、50 処理装置
60 物体
70 通信網
400 位置姿勢計算部
402、502 平面投影部
404、504 差分計算部
406、506 描画計算部
408 記憶部
410 DB
508 ディスプレイ
800 実像
802 実デプス画像
810 3次元情報
812 理想デプス画像
820 差分画像
822 重畳画像
830 ワイヤーフレーム
840 表示画像
900 情報処理装置
902 CPU
904 ROM
906 RAM
908 入力部
910 出力部
912 ストレージ装置
914 ネットワークインタフェース
916 ホストバス
Claims (15)
- 実空間上にある被対象物の深度情報を取得するセンサ部と、
前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、
前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、
算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する表示部と、
を備える情報処理装置。 - 前記被対象物の実像又は前記被対象物の撮像画像に対して前記差分情報を強調して表示するために、前記差分情報に対してエフェクト処理を行うエフェクト処理部をさらに備える、
請求項1に記載の情報処理装置。 - 前記エフェクト処理部は、前記差分情報が、前記被対象物の実像又は前記被対象物の撮像画像とは異なる色彩、明度、又は透明度によって表示されるように、前記差分情報を処理する、請求項2に記載の情報処理装置。
- 前記エフェクト処理部は、前記差分情報がワイヤーフレーム表示されるように、前記差分情報を処理する、請求項2に記載の情報処理装置。
- 前記センサ部は、前記被対象物に対して照射光を照射し、当該被対象物で反射された反射光を受光し、前記照射光と前記反射光との位相差又は時間差を検知することで、前記深度情報を取得するデプスセンサである、請求項1〜4のいずれか1項に記載の情報処理装置。
- 前記センサ部は、複数のカメラにより前記被対象物を撮像して、前記深度情報を取得するステレオカメラである、請求項1〜4のいずれか1項に記載の情報処理装置。
- 前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の実像に重畳して表示するスマートアイグラスである、請求項1〜6のいずれか1項に記載の情報処理装置。
- 前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の撮像画像に重畳して表示するヘッドマウントディスプレイである、請求項1〜6のいずれか1項に記載の情報処理装置。
- 前記被対象物を撮像する撮像部をさらに備える、請求項8に記載の情報処理装置。
- 前記被対象物又は前記ユーザに装着された加速度センサ及び地磁気センサのうちの少なくとも1つを備え、
前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出する、
請求項1〜9のいずれか1項に記載の情報処理装置。 - 前記形状情報及び前記深度情報を平面に投影する平面投影部をさらに備え、
前記差分算出部は、平面に投影された前記形状情報と、平面に投影された前記深度情報との差分である前記差分情報を算出する、
請求項1〜10のいずれか1項に記載の情報処理装置。 - 前記差分算出部は、前記深度情報において深度が無限遠となる領域に関しては、差分が発生していないものとして処理を行う、請求項1〜11のいずれか1項に記載の情報処理装置。
- 実空間上にある被対象物の深度情報を取得するセンサ部と、
前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する位置関係情報算出部と、
前記位置関係情報に基づき変換された前記形状情報と、前記深度情報との差分である差分情報を算出する差分算出部と、
算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する表示部と、
を備える情報処理システム。 - センサ部から実空間上にある被対象物の深度情報を取得し、
前記実空間における前記センサ部と前記被対象物との位置関係情報を算出し、
予め格納された前記被対象物の3次元形状に関する形状情報を前記位置関係情報に基づき変換し、変換された前記形状情報と、前記深度情報との差分である差分情報を算出し、
算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する、
ことを含む情報処理方法。 - コンピュータに
センサ部から実空間上にある被対象物の深度情報を取得する機能と、
前記実空間における前記センサ部と前記被対象物との位置関係情報を算出する機能と、
予め格納された前記被対象物の3次元形状に関する形状情報を前記位置関係情報に基づき変換し、変換された前記形状情報と、前記深度情報との差分である差分情報を算出する機能と、
算出された前記差分情報を、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する機能と、
を実現させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047120A JP7000935B2 (ja) | 2018-03-14 | 2018-03-14 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047120A JP7000935B2 (ja) | 2018-03-14 | 2018-03-14 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159942A true JP2019159942A (ja) | 2019-09-19 |
JP7000935B2 JP7000935B2 (ja) | 2022-01-19 |
Family
ID=67993475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018047120A Active JP7000935B2 (ja) | 2018-03-14 | 2018-03-14 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7000935B2 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352224A (ja) * | 2001-05-29 | 2002-12-06 | Topcon Corp | 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム |
JP2011039646A (ja) * | 2009-08-07 | 2011-02-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2016099633A (ja) * | 2014-11-18 | 2016-05-30 | 三菱電機株式会社 | 携帯端末を利用した保全点検システム |
JP2017138743A (ja) * | 2016-02-02 | 2017-08-10 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017182340A (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017184136A (ja) * | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム及びプログラム |
JP2017191351A (ja) * | 2016-04-11 | 2017-10-19 | 株式会社日立製作所 | 作業支援システム及び方法 |
-
2018
- 2018-03-14 JP JP2018047120A patent/JP7000935B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352224A (ja) * | 2001-05-29 | 2002-12-06 | Topcon Corp | 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム |
JP2011039646A (ja) * | 2009-08-07 | 2011-02-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2016099633A (ja) * | 2014-11-18 | 2016-05-30 | 三菱電機株式会社 | 携帯端末を利用した保全点検システム |
JP2017138743A (ja) * | 2016-02-02 | 2017-08-10 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017182340A (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2017184136A (ja) * | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム及びプログラム |
JP2017191351A (ja) * | 2016-04-11 | 2017-10-19 | 株式会社日立製作所 | 作業支援システム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7000935B2 (ja) | 2022-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102366293B1 (ko) | 디지털 트윈을 이용한 증강현실 기반 현장 모니터링 시스템 및 방법 | |
US11747915B2 (en) | Smart ring for manipulating virtual objects displayed by a wearable device | |
US11277597B1 (en) | Marker-based guided AR experience | |
US11302077B2 (en) | Augmented reality guidance that generates guidance markers | |
US11869156B2 (en) | Augmented reality eyewear with speech bubbles and translation | |
KR20210086072A (ko) | 실시간 현장 작업 모니터링 방법 및 시스템 | |
US20210405772A1 (en) | Augmented reality eyewear 3d painting | |
US11089427B1 (en) | Immersive augmented reality experiences using spatial audio | |
US11582409B2 (en) | Visual-inertial tracking using rolling shutter cameras | |
US20210405363A1 (en) | Augmented reality experiences using social distancing | |
US11263818B2 (en) | Augmented reality system using visual object recognition and stored geometry to create and render virtual objects | |
US11915453B2 (en) | Collaborative augmented reality eyewear with ego motion alignment | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
US11442268B2 (en) | Augmented reality gaming using virtual eyewear beams | |
US20240004197A1 (en) | Dynamic sensor selection for visual inertial odometry systems | |
JP7000935B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
RU2712417C1 (ru) | Способ и система распознавания лиц и построения маршрута с помощью средства дополненной реальности | |
KR102538056B1 (ko) | 증강현실을 이용한 건물 관리 시스템 | |
KR20230163055A (ko) | 대상체 탐지 시스템, 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7000935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |