JP2017054185A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2017054185A
JP2017054185A JP2015175827A JP2015175827A JP2017054185A JP 2017054185 A JP2017054185 A JP 2017054185A JP 2015175827 A JP2015175827 A JP 2015175827A JP 2015175827 A JP2015175827 A JP 2015175827A JP 2017054185 A JP2017054185 A JP 2017054185A
Authority
JP
Japan
Prior art keywords
image
positional relationship
information processing
related information
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015175827A
Other languages
English (en)
Inventor
和範 井本
Kazunori Imoto
和範 井本
梓帆美 高橋
Shihomi Takahashi
梓帆美 高橋
山口 修
Osamu Yamaguchi
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015175827A priority Critical patent/JP2017054185A/ja
Priority to US15/252,428 priority patent/US10235776B2/en
Publication of JP2017054185A publication Critical patent/JP2017054185A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Abstract

【課題】対象物の関連情報を見易く表示可能な情報処理装置を提供する。【解決手段】実施形態の情報処理装置は、取得部と、処理部と、を含む。前記取得部は、第1時刻における第1画像と、前記第1時刻の後の第2時刻における第2画像と、を取得する。前記第1画像は、第1対象物の第1像及び第2対象物の第2像を含む。前記第2画像は、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む。前記処理部は、第1動作と、第2動作と、を実施する。前記第1動作は、前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する。前記第2動作は、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する。【選択図】図1

Description

本発明の実施形態は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
実空間に設けられた対象物に関する関連情報を、画像に重畳して表示するAR(Augmented Reality)アプリケーションがある。ARアプリケーションは、情報処理装置にインストールして用いられる。この情報処理装置においては、関連情報を見易く表示できることが望まれている。
特開2014−206904号公報
本発明の実施形態は、対象物の関連情報を見易く表示可能な情報処理装置、情報処理方法及び情報処理プログラムを提供する。
本発明の実施形態によれば、取得部と、処理部と、を含む情報処理装置が提供される。前記取得部は、第1時刻における第1画像と、前記第1時刻の後の第2時刻における第2画像と、を取得する。前記第1画像は、第1対象物の第1像及び第2対象物の第2像を含む。前記第2画像は、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む。前記処理部は、第1動作と、第2動作と、を実施する。前記第1動作は、前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する。前記第2動作は、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する。
第1の実施形態に係る情報処理装置を例示するブロック図である。 対象物と画像との関係を例示する模式図である。 図3(a)及び図3(b)は、第1の実施形態に係る情報処理装置の適用例を示す模式図である。 図4(a)及び図4(b)は、第1の実施形態に係る検出部21の動作を例示する図である。 図5(a)及び図5(b)は、第1の実施形態に係る対応部22の動作を例示する図である。 図6(a)〜図6(d)は、第1の実施形態に係る算出部23の動作を例示する図である。 図7(a)及び図7(b)は、第1の実施形態に係る表示制御部24の動作を例示する図である。 図8(a)〜図8(c)は、第1の実施形態に係る関連情報の表示結果を例示する模式図である。 第2の実施形態に係る情報処理装置を例示するブロック図である。 図10(a)及び図10(b)は、第2の実施形態に係る情報処理装置の適用例を示す模式図である。 図11(a)及び図11(b)は、第2の実施形態に係る設定部25の動作を例示する図である。 図12(a)〜図12(c)は、第2の実施形態に係る関連情報の表示結果を例示する模式図である。 図13(a)及び図13(b)は、第3の実施形態に係る情報処理装置の適用例を示す模式図である。 図14(a)及び図14(b)は、第3の実施形態に係る算出部23の動作を例示する図である。 図15(a)及び図15(b)は、第3の実施形態に係る表示制御部24の動作を例示する図である。 図16(a)〜図16(c)は、第3の実施形態に係る関連情報の表示結果を例示する模式図である。 図17(a)及び図17(b)は、第4の実施形態に係る情報処理装置の適用例を示す模式図である。 図18(a)及び図18(b)は、第4の実施形態に係る検出部21の動作を例示する図である。 図19(a)及び図19(b)は、第4の実施形態に係る対応部22の動作を例示する図である。 第4の実施形態に係る関連情報の表示結果を例示する模式図である。 第5の実施形態に係る情報処理装置を例示するブロック図である。 図22(a)〜図22(c)は、第5の実施形態に係る情報処理装置の適用例を示す図である。 図23(a)〜図23(c)は、第5の実施形態に係る関連情報の表示結果を例示する模式図である。 第6の実施形態に係る情報処理装置を例示するブロック図である。
以下に、本発明の各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
図1は、第1の実施形態に係る情報処理装置を例示するブロック図である。
図1に表すように、実施形態に係る画像処理装置110は、取得部10と、処理部20と、表示部30と、第1記憶部40と、第2記憶部50と、を含む。取得部10には、例えば、入出力端子が用いられる。取得部10は、有線または無線を介して外部と通信する入出力インターフェイスを含む。処理部20には、例えば、CPU(Central Processing Unit)やメモリなどを含む演算装置が用いられる。処理部20の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
処理部20には、検出部21と、対応部22と、算出部23と、表示制御部24と、が設けられる。これらの各部は、例えば、画像処理プログラムとして実現される。すなわち、画像処理装置110は、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。画像処理装置110に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに画像処理プログラムを実行させることにより実現することができる。このとき、画像処理装置110は、上記の画像処理プログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記の画像処理プログラムを配布して、この画像処理プログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、処理部20は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
この例においては、第1記憶部40と第2記憶部50とを別々に表しているが、第1記憶部40と第2記憶部50とを一つの記憶部として構成してもよい。
図2は、対象物と画像との関係を例示する模式図である。
図2に表すように、画像処理装置110には、デジタルスチルカメラなどの撮像部60が一体で設けられている。撮像部60は、画像処理装置110とは別体で設けられていてもよい。撮像部60は、実空間RSに設けられた第1対象物71及び第2対象物72を撮像して、第1画像61及び第2画像62を生成する。取得部10は、第1画像61及び第2画像62を取得する。第1画像61及び第2画像62は、動画または静止画のいずれでもよい。
第1画像61は、第1時刻t1における画像である。第1画像61は、第1対象物71の第1像81と、第2対象物72の第2像82と、を含む。第2画像62は、第1時刻t1よりも後の第2時刻t2における画像である。第2画像62は、第1対象物71の第3像83と、第3像83とは異なる第4像84と、を含む。本例においては、第1像81及び第3像83は共に、第1対象物71の像である。第2像82及び第4像84は共に、第2対象物72の像である。
本実施形態において、処理部20は、第1動作Op1と、第2動作Op2と、を実施する。第1動作Op1は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第1データd1を生成する。第2動作Op2は、第1位置関係51と第2位置関係52との間の変化の状態が第1状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第2データd2を生成する。第1位置関係51は、第1像81を基準としたときの第2像82の相対的な位置関係である。第2位置関係52は、第3像83を基準としたときの第4像84の相対的な位置関係である。第1状態とは、例えば、第1位置関係51と第2位置関係52との間の変化がない、または、変化が小さい状態を含む。すなわち、第1状態とは、第1位置関係51と第2位置関係52とが実質的に変化しない状態を含む。
より具体的には、検出部21は、第1検出処理を実施する。第1検出処理では、第1画像61から第1像81及び第2像82を検出する。対応部22は、対応付け処理を実施する。対応付け処理では、第1対象物71に関する第1関連情報41を、第1像81に対応付ける。算出部23は、第1算出処理を実施する。第1算出処理では、第1像81を基準としたときの第2像82の相対的な第1位置関係51を算出する。表示制御部24は、第1表示制御処理を実施する。第1表示制御処理では、第1関連情報41を、第1画像62に重畳して表示させる第1データd1を生成する。
さらに、検出部21は、第2検出処理を実施する。第2検出処理では、第2画像62から第3像83及び第4像84を検出する。算出部23は、第2算出処理を実施する。第2算出処理では、第3像83を基準としたときの第4像84の相対的な第2位置関係52を算出する。表示制御部24は、第2表示制御処理を実施する。第2表示制御処理では、第1位置関係51と第2位置関係52との間に変化の状態が第1状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第2データd2を生成する。第1画像61及び第2画像62の表示は、表示部30が行う。
このように、実施形態によれば、第1画像61において、関連情報を表示させる対象像(第1像81、以下、注目対象像ともいう)を基準として、その周囲の対象像(第2像82)との相対的な位置関係(第1位置関係51)を求める。さらに、第2画像62において、第3像83を基準として、その周囲の対象像(第4像84)との相対的な位置関係(第2位置関係52)を求める。これらの位置関係が実質的に変化しなければ、注目対象像の関連情報(第1関連情報41)の表示を継続する。
実施形態に係る画像処理装置110は、実空間に存在する対象物をカメラ等で撮影し、撮影した画像に、対象物に関する関連情報を重畳して表示するARアプリケーションソフトウェアに適用される。関連情報とは、対象物に関する多種多様な情報であり、例えば、対象物に対する作業手順、及び、インターネット等を介して入手できる付随情報などが含まれる。
ここで、多くの対象物の対象像を含む画像の場合、対象像のそれぞれに関連情報を重畳して表示すると、非常に見難くなる。これに対して、カメラの画角の中心(画像の中心)またはユーザの視線に対応する部分に最も近い対象像を注目対象像として、注目対象像についてのみ関連情報を表示する参考例がある。
しかしながら、上記の参考例においては、連続的に撮像された複数の画像に対して、関連情報を表示するときに、ユーザの移動等に伴い、カメラの画角の中心またはユーザの視線が頻繁に移動することが起こり得る。このため、注目対象像が刻一刻と変化し、表示される関連情報が頻繁に切り替わり、見難くなる。
これに対して、実施形態によれば、複数の画像について、注目対象像とその周囲の対象像との間の相対的な位置関係を求め、これらの位置関係が実質的に変化しなければ、注目対象像の関連情報が継続して表示される。このため、ユーザの移動等に伴い表示される関連情報が頻繁に切り替わることがなく、関連情報を見易く表示することができる。
すなわち、図1及び図2に表すように、取得部10は、実空間RSに存在する対象物を撮影した複数の画像(例えば、第1画像61及び第2画像62)を取得し、取得した複数の画像を検出部21に出力する。取得部10は、デジタルスチルカメラなどの撮像部60からリアルタイムで画像を取得してもよい。取得部10は、HDD(Hard Disk Drive)などの記憶媒体に記録された画像データを読み込んで取得しても良い。記憶媒体には、例えば、撮像部60から入力される画像を変換したデジタル画像データが記録されている。
検出部21は、取得部10から入力された第1画像61を解析して、第1画像61中に含まれる対象像を検出し、対象像の位置を算出部23に出力し、対象像の種別を対応部22にそれぞれ出力する。ここで、対象像とは、例えば、看板、ロゴ、標識、銘板などの文字情報を含むものでもよい。対象像とは、例えば、店舗に配置された商品、街中に立っている建物、工場に設置された機械などの物体の形状情報を含むものでもよい。さらに、対象像とは、例えば、人の顔や人物に関する情報を含むものでもよい。
検出部21により出力される対象像の位置は、画像中で対象像が位置する座標情報として表現される。このときの対象物の座標情報は、厳密に対象像を囲うように設定してもよいし、外接矩形や重心座標などを用いて簡略化しても良い。検出部21により出力される対象像の種別は、他の対象像と区別するための情報である。例えば、文字情報を含む対象像を文字認識し、得られた文字列を対象像の種別としてもよい。物体の形状情報を含む対象像を形状認識し、得られた物体形状を対象像の種別としてもよい。さらには、対象像から切り出した画像部分そのものを種別としてもよい。
対応部22は、検出部21から入力された各対象像の種別に基づいて、各対象像の種別に対応する関連情報を、第1記憶部40に格納されている関連情報40aの中から選択し、選択した関連情報を表示制御部24に出力する。例えば、第1関連情報41が第1像81に対応付けられる。関連情報40aとは、対象物(対象像)に対応する文字などの情報である。例えば、日本語文字を英語文字に翻訳するARアプリケーションにおいては、翻訳結果の英語文字が関連情報に相当する。また、機器に対する作業手順を表示するARアプリケーションにおいては、機器の操作手順を説明する作業手順書や操作の概略を表した画像などが関連情報に相当する。なお、関連情報40aについて、特に限定はなく、対象物に関連して取得した画像に重畳表示できるものであれば良い。
算出部23は、検出部21から入力された複数の対象像の位置に基づいて、複数の対象像の相対的な位置関係50aを算出し、算出した位置関係50aを第2記憶部50に記録する。例えば、位置関係50aには、第1画像61に含まれる第1像81と第2像82との間の相対的な第1位置関係51が含まれる。ここでは、第1像81が注目対象像として設定されている。第1位置関係51は、第1像81を基準としたときの第2像82の相対的な位置関係である。
表示制御部24は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第1データd1を生成する。そして、表示制御部24は、表示部30を制御して、第1データd1を表示部30に表示させる。
検出部21、対応部22、及び算出部23は、第2画像62に含まれる複数の対象像に対して同様の処理を繰り返し、第2画像62に含まれる第3像83と第4像84との間の相対的な第2位置関係52を算出する。
表示制御部24は、第1位置関係51と、第2位置関係52と、を比較し、相対的な位置関係の変化の状態が第1状態であるか否かを判定する。第1状態であれば、第1関連情報41を第2画像62に重畳して表示させる。このとき、対象像の位置を起点として、どの位置に関連情報を表示するのか、表示位置を決定してもよい。一方、第1状態とは異なる第2状態であれば、第1関連情報41を第2画像62に表示させない。または、第2画像62に、第1関連情報41とは異なる別の関連情報を表示させてもよい。別の関連情報としては、例えば、第2対象物72に関する第2関連情報を表示させることができる。ここで、第2状態とは、第2位置関係52が第1位置関係51に対して変化している状態である。
このように、画像に含まれる複数の対象像の相対的な位置関係に基づいて、同じ関連情報を連続して表示するか、または、切り替えて別の関連情報を表示するか、を制御することができる。このため、連続して複数の画像が入力された場合にも、関連情報が頻繁に切り替わることがなく、ユーザにとって見易い関連情報を表示することができる。
図3(a)及び図3(b)は、第1の実施形態に係る情報処理装置の適用例を示す模式図である。
図3(a)は、複数の対象物を例示する模式図である。
図3(b)は、作業者80が情報処理装置110を持って複数の対象物を撮像しながら地点Xから地点Zまで移動する様子を例示する模式図である。
図3(a)に表すように、実空間RSには、第1対象物71、第2対象物72、及び第3対象物73が存在する。図3(b)に表すように、情報処理装置110は、例えば、カメラ(撮像部60)を備えたタブレット端末である。情報処理装置110には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80はこの第1関連情報41を見ながら第1〜第3対象物71〜73に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、第1〜第3対象物71〜73に対して、情報処理装置110をかざしながら、移動している。第1画像61(地点X)は、第1像81、第2像82に加え、さらに、第3対象物73の第5像85を含む。第2画像62(地点Z)は、第3像83、第4像84に加え、第3対象物73の第6像86を含む。
本例においては、第1動作Op1は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第3データd3を生成する。第2動作Op2は、第1位置関係51と第2位置関係52との間の変化の状態が第1状態であり、第1像81を基準としたときの第5像85の相対的な第3位置関係53と、第3像を基準としたときの第6像86の相対的な第4位置関係54と、の間の変化の状態が第3状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第4データd4を生成する。第3状態とは、第1状態と同様に、例えば、第3位置関係53と第4位置関係54との間の変化がない、または、変化が小さい状態を含む。すなわち、第3状態とは、第3位置関係53と第4位置関係54とが実質的に変化しない状態を含む。
図4(a)及び図4(b)は、第1の実施形態に係る検出部21の動作を例示する図である。
図4(a)は、第1画像61を例示する模式図である。
図4(b)は、検出部21の動作例を説明するフローチャート図である。
図4(a)に表すように、情報処理装置110は、地点Xにおいて第1対象物71、第2対象物72、及び第3対象物73を撮像し、それぞれ第1像81、第2像82、及び第5像85を含む第1画像61を取得して画面に表示する。ここで、第1対象物71には文字ラベル「Type B」、第2対象物72には文字ラベル「Type A」、第3対象物73には文字ラベル「Type C」がそれぞれ付与されている。本例においては、第1画像61から文字ラベルを文字認識し、これに基づいて、各対象像(第1像81、第2像82、及び第5像85)の位置を算出すると共に、各対象像の種別を認識する。
図4(b)に表すように、検出部21は、第1画像61から複数の対象像(第1像81、第2像82、及び第5像85)を検出する(ステップS1)。例えば、第1画像61において文字認識を行い、文字を含む像を対象像として検出する。画像から文字を検出する技術は、情景文字検出と呼ばれ様々な方法がある。例えば、画像を複数の小領域に分割し、分割した小領域毎に多次元ベクトルで構成される特徴量を抽出する。特徴量としては、例えば、SIFT(Scale-Invariant Feature Transform)などの局所特徴量を利用することができる。例えば、典型的な文字画像のパターン(大文字または小文字の英数字)を登録したデータベースにあるパターンと局所特徴量によって対応付けて、一定数の対応が取れた小領域に対象像が存在すると判断することができる。これにより、第1画像61から、「Type B」を含む第1像81と、「Type A」を含む第2像82と、「Type C」を含む第5像85と、を検出する。
次に、検出部21は、各対象像(第1像81、第2像82、及び第5像85)の位置を算出する(ステップS2)。ここでは、複数の文字群に基づき各対象像の位置を算出する。例えば、隣接する文字の固まりを文字列として検出し、検出した文字列を内包する外接矩形の重心を対象像の位置として算出する。
次に、検出部21は、各対象像(第1像81、第2像82、及び第5像85)の種別を認識する(ステップS3)。局所特徴量によって対応付けた文字パターンにより、各対象像の種別、すなわち、第1像81の「Type B」、第2像82の「Type A」、及び第5像85の「Type C」をそれぞれ認識する。
図5(a)及び図5(b)は、第1の実施形態に係る対応部22の動作を例示する図である。
図5(a)は、関連情報40aを例示する図である。
図5(b)は、対応部22の動作例を説明するフローチャート図である。
図5(a)に表すように、各対象像(第1像81、第2像82、第5像85)の種別(「Type B」、「Type A」、「Type C」)と、関連情報40a(第1関連情報41、第2関連情報42、第3関連情報43)と、を対応付けるデータベースを保持する。このデータベースは、第1記憶部40に予め格納されている。この例においては、第1像81の「Type B」には、第1対象物71に関する「最初に点検する機器です」(第1関連情報41)が対応する。第2像82の「Type A」には、第2対象物72に関する「メーターが正常範囲かを確認して下さい」(第2関連情報42)が対応する。第5像85の「Type C」には、第3対象物73に関する「スイッチがついているか確認して下さい」(第3関連情報43)が対応する。
図5(b)に表すように、対応部22は、各対象像の種別に基づいて、データベース(第1記憶部40)を検索し(ステップS11)、各対象像に関連情報を対応付ける(ステップS12)。例えば、第1画像61から検出した第2像82には、「Type A」という種別が付与されている。このため、第2関連情報42、すなわち、「メーターが正常範囲かを確認して下さい」が対応付けられる。同様に、第1像81には、「Type B」という種別が付与されている。このため、第1関連情報41、すなわち、「最初に点検する機器です」が対応付けられる。第5像85には、「Type C」という種別が付与されている。このため、第3関連情報43、すなわち、「スイッチがついているか確認して下さい」が対応付けられる。
なお、ここでは、第1像81が、関連情報を表示させる注目対象像として予め設定されている。このため、第1像81に対応付けられた第1関連情報41が、第1画像61に重畳して表示される。
図3(b)に表すように、地点Zにおける第2画像62に対しても同様の処理が実施される。すなわち、検出部21は、第2画像62から複数の対象像(第3像83、第4像84、及び第6像86)を検出する。検出部21は、各対象像の位置を算出し、各対象像の種別を認識する。対応部22は、各対象像の種別に基づいて、データベース(第1記憶部40)を検索し、各対象像に関連情報を対応付ける。例えば、第2画像62から検出した第4像84には、「Type A」という種別が付与されている。このため、第2関連情報42、すなわち、「メーターが正常範囲かを確認して下さい」が対応付けられる。同様に、第3像83には、「Type B」という種別が付与されている。このため、第1関連情報41、すなわち、「最初に点検する機器です」が対応付けられる。第6像86には、「Type C」という種別が付与されている。このため、第3関連情報43、すなわち、「スイッチがついているか確認して下さい」が対応付けられる。
図6(a)〜図6(d)は、第1の実施形態に係る算出部23の動作を例示する図である。
図6(a)は、算出部23の動作例を説明するフローチャート図である。
図6(b)は、第1相対座標系を例示する模式図である。
図6(c)は、第2相対座標系を例示する模式図である。
図6(d)は、第1〜第4位置関係の算出結果を例示する図である。
図6(a)に表すように、算出部23は、地点Xにおいて第1画像61に含まれる複数の対象像(第1像81、第2像82、第5像85)それぞれの座標を取得する(ステップS21)。そして、算出部23は、これら複数の対象像の相対位置関係を算出するため、相対座標系における中心点を決定する(ステップS22)。例えば、図6(b)に表すように、地点Xにおいて画角の中心に最も近い文字列「Type B」を含む第1像81中の第1位置b1を中心点とする第1相対座標系c1を設定する。そして、算出部23は、第1相対座標系c1に基づいて、図6(d)に表すように、第1位置関係51及び第3位置関係53を算出する(ステップS23)。
ここで、第1相対座標系c1は、第1軸a1と、第2軸a2と、を含む。第1軸a1は、第1位置b1を通り第1方向D1に延びる。第2軸a2は、第1位置b1を通り第1方向D1と交差する第2方向D2に延びる。第1方向D1は、例えば、第1画像61のX軸方向である。第2方向D2は、例えば、第1画像61のY軸方向である。
第1位置関係51は、第1向きhd1と、第2向きhd2と、を含む。第1向きhd1は、第3方向D3の第1軸a1に沿う向きである。第3方向D3は、第1像81から第2像82に向かう方向である。第2向きhd2は、第3方向D3の第2軸a2に沿う向きである。すなわち、第2像82が第2軸a2よりも右側にあれば、第1向きhd1は右向きとなる。第1向きhd1が右向きの状態を「+」で表す。第2像82が第2軸a2よりも左側にあれば、第1向きhd1は左向きとなる。第1向きhd1が左向きの状態を「−」で表す。また、第2像82が第1軸a1よりも上側にあれば、第2向きhd2は上向きとなる。第2向きhd2が上向きの状態を「+」で表す。第2像82が第1軸a1よりも下側にあれば、第2向きhd2は下向きとなる。第2向きhd2が下向きの状態を「−」で表す。図6(b)の例の場合、第1像81(Type B)と第2像82(Type A)との間の位置関係は、(左側、上側)となるため、(第1向きhd1、第2向きhd2)は、(−、+)と表される。
第3位置関係53は、第5向きhd5と、第6向きhd6と、を含む。第5向きhd5は、第5方向D5の第1軸a1に沿う向きである。第5方向D5は、第1像81から第5像85に向かう方向である。第6向きhd6は、第5方向D5の第2軸a2に沿う向きである。すなわち、第5像85が第2軸a2よりも右側にあれば、第5向きhd5は右向きとなる。第5向きhd5が右向きの状態を「+」で表す。第5像85が第2軸a2よりも左側にあれば、第5向きhd5は左向きとなる。第5向きhd5が左向きの状態を「−」で表す。また、第5像85が第1軸a1よりも上側にあれば、第6向きhd6は上向きとなる。第6向きhd6が上向きの状態を「+」で表す。第5像85が第1軸a1よりも下側にあれば、第6向きhd6は下向きとなる。第6向きhd6が下向きの状態を「−」で表す。図6(b)の例の場合、第1像81(Type B)と第5像85(Type C)との間の位置関係は、(右側、上側)となるため、(第5向きhd5、第6向きhd6)は、(+、+)と表される。
算出部23は、地点Zにおいて第2画像62に対して同様の処理を実施する。つまり、算出部23は、第2画像62に含まれる複数の対象像(第3像83、第4像84、第6像86)それぞれの座標を取得する(ステップS21)。そして、算出部23は、これら複数の対象像の相対位置関係を算出するため、相対座標系における中心点を決定する(ステップS22)。例えば、図6(c)に表すように、地点Zにおいて画角の中心に最も近い文字列「Type B」を含む第3像83の第2位置b2を中心点とする第2相対座標系c2を設定する。そして、算出部23は、第2相対座標系c2に基づいて、図6(d)に表すように、第2位置関係52及び第4位置関係54を算出する(ステップS23)。
ここで、第2相対座標系c2は、第3軸a3と、第4軸a4と、を含む。第3軸a3は、第2位置b2を通り第1方向D1に延びる。第4軸a4は、第2位置b2を通り第1方向D2と交差する第2方向D2に延びる。第1方向D1は、例えば、第2画像62のX軸方向である。第2方向D2は、例えば、第2画像62のY軸方向である。
第2位置関係52は、第3向きhd3と、第4向きhd4と、を含む。第3向きhd3は、第4方向D4の第3軸a3に沿う向きである。第4方向D4は、第3像83から第4像84に向かう方向である。第4向きhd4は、第4方向D4の第4軸a4に沿う向きである。すなわち、第4像84が第4軸a4よりも右側にあれば、第3向きhd3は右向きとなる。第3向きhd3が右向きの状態を「+」で表す。第4像84が第4軸a4よりも左側にあれば、第3向きhd3は左向きとなる。第3向きhd3が左向きの状態を「−」で表す。また、第4像84が第3軸a3よりも上側にあれば、第4向きhd4は上向きとなる。第4向きhd4が上向きの状態を「+」で表す。第4像84が第3軸a3よりも下側にあれば、第4向きhd4は下向きとなる。第4向きhd4が下向きの状態を「−」で表す。図6(c)の例の場合、第3像83(Type B)と第4像84(Type A)との間の位置関係は、(左側、上側)となるため、(第3向きhd3、第4向きhd4)は、(−、+)と表される。
第4位置関係54は、第7向きhd7と、第8向きhd8と、を含む。第7向きhd7は、第6方向D6の第3軸a3に沿う向きである。第6方向D6は、第3像83から第6像86に向かう方向である。第8向きhd8は、第6方向D6の第4軸a4に沿う向きである。すなわち、第6像86が第4軸a4よりも右側にあれば、第7向きhd7は右向きとなる。第7向きhd7が右向きの状態を「+」で表す。第6像86が第4軸a4よりも左側にあれば、第7向きhd7は左向きとなる。第7向きhd7が左向きの状態を「−」で表す。また、第6像86が第3軸a3よりも上側にあれば、第8向きhd8は上向きとなる。第8向きhd8が上向きの状態を「+」で表す。第6像86が第3軸a3よりも下側にあれば、第8向きhd8は下向きとなる。第8向きhd8が下向きの状態を「−」で表す。図6(c)の例の場合、第3像83(Type B)と第6像86(Type C)との間の位置関係は、(右側、上側)となるため、(第7向きhd7、第8向きhd8)は、(+、+)と表される。
図7(a)及び図7(b)は、第1の実施形態に係る表示制御部24の動作を例示する図である。
図7(a)は、表示制御部24の動作例を説明するフローチャート図である。
図7(b)は、注目対象像の決定結果を例示する図である。
図7(a)及び図7(b)に表すように、表示制御部24は、第1位置関係51と第2位置関係52との間、及び、第3位置関係53と第4位置関係54との間、のそれぞれに実質的な変化があるか否かを判定し(ステップS31)、判定結果に基づいて、表示する関連情報を決定し(ステップS32)、関連情報の表示位置を決定する(ステップS33)。
本例においては、第1方向hd1と第3方向hd3とが同じであり、第2方向hd2と第4方向hd4とが同じである。このため、第1位置関係51と第2位置関係52との間の変化の状態は、第1状態と判定される。また、第5方向hd5と第7方向hd7とが同じであり、第6方向hd6と第8方向hd8とが同じである。このため、第3位置関係53と第4位置関係54との間の変化の状態は、第3状態と判定される。この場合、表示制御部24は、地点Zにおいて位置関係に実質的な変化がないと判定し、地点Xで表示していた関連情報を継続して表示する。一方、地点Zにおいて位置関係が変化していると判定したときは、注目対象像を再度設定し、表示する関連情報を別の関連情報に切り替える。
地点X、地点Yにおいては、「Type B」の対象像が注目対象像として決定されていたものとする。地点Zに到着した際に、相対的な位置関係が実質的に変化したか否かを判定する。地点X(及び地点Y)での位置関係と、地点Zでの位置関係と、を比較すると、これらの位置関係は実質的に変化していないことがわかる。そのため、注目対象像は、地点X(及び地点Y)と同じく「Type B」の対象像であると判定できる。この場合、表示すべき関連情報は、第1関連情報41、すなわち、「最初に点検する機器です」と決定できる。
表示制御部24においては、関連情報の表示位置を適応的に決定してもよい。例えば、注目対象像の周辺で、かつ検出された他の対象像に重ならない位置を表示位置として決定することができる。
図8(a)〜図8(c)は、第1の実施形態に係る関連情報の表示結果を例示する模式図である。
図8(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図8(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図8(c)は、地点Zにおける関連情報の表示結果を例示する図である。
図3(a)に表したように、実空間RSには、第1対象物71、第2対象物72、及び第3対象物73が存在する。情報処理装置110には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第3対象物71〜73に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置110をかざしながら、移動している。
図8(a)に表すように、第1画像61(地点X)は、第1像81、第2像82に加え、さらに、第3対象物73の第5像85を含む。図8(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84に加え、さらに、第3対象物73の第6像86を含む。地点Xと地点Zとにおいて、複数の対象像の相対的な位置関係に実質的な変化はない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41が継続して表示される。
なお、上記の実施例では、地点Xの第1画像、地点Yの第2画像、地点Zの第3画像において対象物が正確に検出された状況を想定している。しかし、連続する、ある画像で対象物が一瞬検出されなかった場合でも、前後の画像により未検出の対象物を補完することによって、相対的な位置関係が変化したかどうかを判断すれば良い。例えば、ユーザから見た風景中に複数の建物を撮像する場合、撮像機器を保持したユーザ自身が移動するために、画像がぼけたり、障害物等によって対象となる建物が一瞬だけ隠れることがある。この場合、前後の画像の検出対象物を補完して対応してもよいし、撮像画像のすべてを処理対象とせず、所定のフレーム間隔で処理してもよい。さらに、例えば、所定のコースを移動する車や荷物など、対象物が動く場合でも同様である。これらは、所定の状況によって切り替える手段を別途用意して、ユーザの指示によって処理を付け加えてもよい。
このように、実施形態によれば、作業者の移動によって画像におさまる複数の対象像の位置が変化しても、これら複数の対象像の相対的な位置関係が変化しなければ、同じ関連情報を継続して表示することができる。このため、関連情報を見易く表示することが可能となる。
(第2の実施形態)
図9は、第2の実施形態に係る情報処理装置を例示するブロック図である。
図9に表すように、実施形態に係る情報処理装置111は、さらに、設定部25が設けられている。
処理部20は、第1位置関係51を導出する動作をさらに実施する。導出の動作は、第1像81の中心と第1画像61の中心との距離が、第2像82の中心と第1画像61の中心との距離よりも短い状態が所定時間継続したときに、第1位置関係51を導出することを含む。第1位置関係51は、第1像81を基準としたときに第2像82の相対的な位置関係である。設定部25は、第1像81を基準に設定する。つまり、第1像81を、注目対象像に設定する。
図10(a)及び図10(b)は、第2の実施形態に係る情報処理装置の適用例を示す模式図である。
図10(a)は、複数の対象物を例示する模式図である。
図10(b)は、作業者80が情報処理装置111を持って複数の対象物を撮像した様子を例示する模式図である。
図10(a)に表すように、実空間RSには、複数の対象物として、文字列「Type B」を含む第1対象物71と、文字列「Type A」を含む第2対象物72と、文字列「Type C」を含む第3対象物73と、文字列「Type D」を含む第4対象物74と、文字列「Type E」を含む第5対象物75と、が設けられている。
図10(b)に表すように、情報処理装置111は、第1〜第5対象物71〜75を撮像した第1画像61を表示する。第1画像61は、第1対象物71の第1像81と、第2対象物72の第2像82と、第3対象物73の第5像85と、第4対象物74の第7像87と、第5対象物75の第8像88と、を含む。
情報処理装置111は、例えば、カメラ(撮像部60)を備えたタブレット端末である。このように、実空間RSに複数の対象物が存在し、作業者80が複数の対象物に対して情報処理装置111をかざしている状況を想定する。本実施形態においては、注目対象像を設定する設定部25が追加される。この設定部25の動作例について以下に説明する。
図11(a)及び図11(b)は、第2の実施形態に係る設定部25の動作を例示する図である。
図11(a)は、設定部25の動作例を説明するフローチャート図である。
図11(b)は、設定部25の動作を例示する模式図である。
図11(a)に表すように、設定部25は、第1画像61に対して注目対象像の位置を推定するための座標を指定する(ステップS41)。例えば、表示部30に座標入力のためのタッチパネル等を搭載して入力しても良い。または、画角に存在する特定の領域を座標として指定しても良い。ここでは、図11(b)に表すように、画角の中心座標61aを指定する。第1〜第5対象物71〜75に対応する5つの像81、82、85、87、88のうち、「Type B」の第1像81が最も中心座標61aに近い。このため、「Type B」の第1像81を、候補対象像として決定する(ステップS42)。
設定部25は、継続時間を測定する(ステップS43)。例えば、閾値を2秒とした場合、2秒以上、情報処理装置111の画角を固定することで、第1像81を、注目対象像に設定する(ステップS44)。
すなわち、第1像81の中心と第1画像61の中心座標61aとの距離は、第2像82の中心と第1画像61の中心座標61aとの距離よりも短い。この位置関係が所定時間継続したときに、第1像81を、注目対象像に設定する。これにより、第1位置関係51が導出される。なお、第1像81と、第5像85、第7像87及び第8像88のそれぞれと、の間のそれぞれの位置関係についても、第1像81と第2像82との間の位置関係と同様である。
さらに、表示制御部24においては、作業者80が明示的に注目対象像を設定した後は、相対位置関係が変化しない限り、注目対象像に関する関連情報の表示を継続するように制御する。
図12(a)〜図12(c)は、第2の実施形態に係る関連情報の表示結果を例示する模式図である。
図12(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図12(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図12(c)は、地点Zにおける関連情報の表示結果を例示する図である。
図10(a)に表したように、実空間RSには、第1〜第5対象物71〜75が存在する。本例における地点X、Y、Zは、図3(b)に示す地点X、Y、Zと同様である。情報処理装置111には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置111をかざしながら、移動している。
図12(a)に表すように、第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。図12(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84及び第6像86に加え、さらに、第4対象物74の第9像89、第5対象物75の第10像90を含む。地点Xと地点Zとにおいて、複数の対象像の相対的な位置関係に実質的な変化はない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41が継続して表示される。
このように、実施形態によれば、設定部を設けることで、作業者が所望の注目対象像を設定することができる、さらに、設定した注目対象像に関する関連情報の表示を継続できるため、関連情報を見易く提供することが可能となる。
(第3の実施形態)
図13(a)及び図13(b)は、第3の実施形態に係る情報処理装置の適用例を示す模式図である。
図13(a)は、複数の対象物を例示する模式図である。
図13(b)は、作業者80が情報処理装置112を持って複数の対象物を撮像しながら地点Xから地点Zまで移動する様子を例示する模式図である。
図13(a)に表すように、実空間RSには、第1〜第5対象物71〜75が存在する。図13(b)に表すように、情報処理装置112は、例えば、カメラ(撮像部60)を備えたタブレット端末である。情報処理装置112には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置112をかざしながら、移動している。第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。第2画像62(地点Z)は、第3像83、第4像84及び第6像86に加え、さらに、第4対象物74の第9像89、第5対象物75の第10像90を含む。
図14(a)及び図14(b)は、第3の実施形態に係る算出部23の動作を例示する図である。
図14(a)は、算出部23の動作例を説明するフローチャート図である。
図14(b)は、対象像の位置関係の算出結果を例示する図である。
本実施形態においては、第1画像61に表示される全ての対象像の中から、注目対象像と距離の近い対象像を選択的に抽出し、抽出した対象像のみを用いて相対位置関係の変化を判定する。
すなわち、算出部23は、第1画像61(地点X)に含まれる複数の対象像、すなわち、第1像81、第2像82、第5像85、第7像87、及び第8像88のそれぞれの座標を取得する(ステップS51)。算出部23は、複数の対象像間の相対的な位置関係を算出する。これにより、相対座標系の中心点を決定する(ステップS52)。例えば、地点Xにおいて画角の中心に最も近い「Type B」の第1像81を注目対象像として決定し、第1像81の位置を、相対座標系の中心点として決定する。
「Type B」の第1像81を基準としたときに、「Type A」の第2像82と、「Type C」の第5像85と、「Type D」の第7像87と、「Type E」の第8像88と、のそれぞれについて、相対的な位置関係を算出する。この位置関係の算出方法は、前述の図6(a)〜図6(d)で説明した通りである。そしてさらに、第1像81の大きさなどに基づいて基準距離を設定し、第1像81と、他の像それぞれ(第2像82、第5像85、第7像87、第8像88)との距離を求める。
図14(b)に表すように、「Type B」の第1像81と、「Type A」の第2像82との関係においては、第2像82は、第1像81の(左側、上側)に位置する。さらに、第1像81と第2像82との間の距離は、例えば、基準距離の5倍である。このため、これを(−、+、5)と表現する。同様に、「Type B」の第1像81と、「Type C」の第5像85との関係においては、(+、+、5)と表現できる。「Type B」の第1像81と、「Type D」の第7像87との関係においては、(−、+、15)と表現できる。「Type B」の第1像81と、「Type E」の第8像88との関係においては、(+、+、15)と表現できる。
ここで、算出部23は、第1像81の位置から一定の範囲内に位置する対象像(ここでは、第2像82、第5像85)のみを選択的に抽出し、抽出した対象像による相対的な位置関係のみを、比較の対象とする。例えば、距離の閾値を、「10」と設定した場合、「Type D」の第7像87の相対的な位置関係と、「Type E」の第8像88の相対的な位置関係とは、比較対象として考慮されない。つまり、「Type D」と「Type E」とは無視される。従って、第2画像62(地点Z)においては、「Type D」の第9像89の相対的な位置関係と、「Type E」の第10像90の相対的な位置関係とは、算出されず、比較対象として考慮されない。
図15(a)及び図15(b)は、第3の実施形態に係る表示制御部24の動作を例示する図である。
図15(a)は、表示制御部24の動作例を説明するフローチャート図である。
図15(b)は、注目対象像の決定結果を例示する図である。
図15(a)に表すように、表示制御部24は、地点X(及び地点Y)における位置関係と、地点Zにおける位置関係と、の間に実質的な変化があるか否かを判定し(ステップS61)、判定結果に基づいて、表示する関連情報を決定し(ステップS62)、関連情報の表示位置を決定する(ステップS63)。
本例においては、第1方向hd1と第3方向hd3とが同じであり、第2方向hd2と第4方向hd4とが同じである。このため、第1位置関係51と第2位置関係52との間の変化の状態は、第1状態と判定される。また、第5方向hd5と第7方向hd7とが同じであり、第6方向hd6と第8方向hd8とが同じである。このため、第3位置関係53と第4位置関係54との間の変化の状態は、第3状態と判定される。この場合、表示制御部24は、地点Zにおいて位置関係に実質的な変化がないと判定し、地点Xで表示していた関連情報を継続して表示する。一方、地点Zにおいて位置関係が変化していると判定したときは、注目対象像を再度設定し、表示する関連情報を別の関連情報に切り替える。
地点X、地点Yにおいては、「Type B」の対象像が注目対象像として決定されていたものとする。地点Zに到着した際に、相対的な位置関係が実質的に変化したか否かを判定する。地点X(及び地点Y)での位置関係と、地点Zでの位置関係と、を比較すると、これらの位置関係は実質的に変化していないことがわかる。そのため、注目対象像は、地点X(及び地点Y)と同じく「Type B」の対象像であると判定できる。この場合、表示すべき関連情報は、第1関連情報41、すなわち、「最初に点検する機器です」と決定できる。
表示制御部24においては、関連情報の表示位置を適応的に決定してもよい。例えば、注目対象像の周辺で、かつ検出された他の対象像に重ならない位置を表示位置として決定することができる。
図16(a)〜図16(c)は、第3の実施形態に係る関連情報の表示結果を例示する模式図である。
図16(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図16(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図16(c)は、地点Zにおける関連情報の表示結果を例示する図である。
図13(a)に表したように、実空間RSには、第1〜第5対象物71〜75が存在する。本例における地点X、Y、Zは、図13(b)に示す地点X、Y、Zと同様である。情報処理装置112には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置112をかざしながら、移動している。
図16(a)に表すように、第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。しかしながら、第7像87と第8像88とは相対位置関係の比較の対象にはならない。点線で囲まれた第1像81、第2像82及び第5像85のみが相対位置関係の比較の対象とされる。図16(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84及び第6像86のみを含む。すなわち、第2画像62には、第4対象物74の第9像89、第5対象物75の第10像90は含まれていないが、これらの対象像の相対位置関係は、比較対象として考慮されていない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41がそのまま継続して表示される。
このように、実施形態によれば、多くの対象像が表示されるときに、注目対象像と距離の近い対象像に絞って相対位置関係を算出、比較することができる。このため、演算処理を迅速に実施することが可能となる。
(第4の実施形態)
図17(a)及び図17(b)は、第4の実施形態に係る情報処理装置の適用例を示す模式図である。
図17(a)は、複数の対象人物を例示する模式図である。
図17(b)は、案内者80aが情報処理装置113を持って複数の対象人物を撮像した様子を例示する模式図である。
情報処理装置113は、例えば、カメラ(撮像部60)を備えたタブレット端末である。本実施形態においては、実空間の中に複数の人物が存在している。これに対して、案内者80aが情報処理装置113をかざして、注目人物に応じた案内のインストラクションを確認する状況を想定する。
図17(a)に表すように、実空間RSには、複数の対象人物として、「10代未満女性」の第1対象人物91と、「30代女性」の第2対象人物92と、「40代男性」の第3対象人物93と、が存在する。
図17(b)に表すように、情報処理装置113は、第1〜第3対象人物91〜93を撮像した第1画像61を表示する。第1画像61は、第1対象人物91の第1像101と、第2対象人物92の第2像102と、第3対象人物93の第3像103と、を含む。
図18(a)及び図18(b)は、第4の実施形態に係る検出部21の動作を例示する図である。
図18(a)は、第1画像61を例示する模式図である。
図18(b)は、検出部21の動作例を説明するフローチャート図である。
図18(a)に表すように、各対象人物の像はそれぞれ顔を含む。図18(b)に表すように、検出部21は、顔を検出する(ステップS71)。顔検出の技術には、様々な方法がある。例えば、画像において様々なサイズのウィンドウを走査させながら、顔の有無を検出する。これによれば、大小サイズの異なる顔に対応できる。個々のウィンドウに対して、顔の構造的な特徴を表現する輝度変化の共起パターンを用いて顔の有無を判断する。これにより、照明条件の変動や肌の色の違いなどの影響を抑制することが可能となる。
検出部21は、顔の特徴点を検出する(ステップS72)。検出した顔領域から、目・鼻・口などの顔の構造的な特徴を表す位置(特徴点)を抽出する。この顔特徴点検出により、対象とする人物像の位置を合わせて取得することができる。
検出部21は、属性を認識する(ステップS73)。属性認識では、検出した顔の様々な属性を判定する。具体例として、性別と年齢を挙げることができる。検出した顔毎に、男性か女性かを区別し、年齢層を10代ごとにクラス分けする。性別や年齢層の識別方法としては、検出した顔の特徴点に基づいて、顔の特徴点と、参照する顔のモデルとの対応付けを行う。顔の向きを正面に補正した上で、事前にクラス毎に収集した顔のパターンから辞書を作成し、辞書との距離が近いクラスを分類結果として出力する。
図19(a)及び図19(b)は、第4の実施形態に係る対応部22の動作を例示する図である。
図19(a)は、関連情報40aを例示する図である。
図19(b)は、対応部22の動作例を説明するフローチャート図である。
図19(a)に表すように、対象人物像の属性種別と、関連情報40aと、を対応付けるデータベースを保持する。このデータベースは、第1記憶部40に予め格納されている。
図19(b)に表すように、対応部22は、各対象人物像の属性種別に基づいて、データベース(第1記憶部40)を検索し(ステップS81)、各対象人物像に関連情報を対応付ける(ステップS82)。対応部22では、画像から検出した顔属性の種別と、関連情報を対応付けるデータベースを保持することができる。例えば、「10代未満女性」の第1像101が注目対象人物像として設定されていたとする。これに基づきデータベースを参照すると、「10代未満」の条件に合致するために、第4関連情報44、すなわち、「子供向け×××イベントが30分後開催されます。案内下さい。」が対応付けされる。
図20は、第4の実施形態に係る関連情報の表示結果を例示する模式図である。
図20に表すように、情報処理装置113には、「10代未満の女性」の第1像101に、第4関連情報44、すなわち、「子供向け×××イベントが30分後開催されます。案内下さい。」が表示される。
このように、顔を対象とした場合にも、人物の属性種別に合った関連情報を利用者(案内者)に提示することが可能となる。この場合においても、対象とする人物の相対的な位置関係が変わらなければ、同じ関連情報を継続して表示することができる。このため、関連情報を見易く表示することが可能となる。
(第5の実施形態)
図21は、第5の実施形態に係る情報処理装置を例示するブロック図である。
図21に表すように、実施形態に係る情報処理装置114は、さらに、操作入力部26が設けられている。
処理部20は、相対位置関係の基準とする注目対象像を、第1像81から第2像82に変更する動作をさらに実施する。変更の動作は、第2像82に対応付けられた第2関連情報42(図5(a)参照)を、第1画像61に重畳して表示させる第5データd5を生成することを含む。処理部20は、操作入力部26により受け付けた操作入力に基づいて、変更の動作を実施する。
図22(a)〜図22(c)は、第5の実施形態に係る情報処理装置の適用例を示す図である。
図22(a)は、操作入力部26を例示するブロック図である。
図22(b)は、操作領域の画面表示例を示す模式図である。
図22(c)は、操作方向と対象像との関係を例示する図である。
情報処理装置114は、例えば、カメラ(撮像部60)を備えたタブレット端末である。本実施形態においては、実空間に複数の対象物が存在し、作業者80が情報処理装置114をかざしている状況を想定する。
図22(a)に表すように、操作入力部26は、操作取得部26aと、相対座標算出部26bと、対象像変更部26cと、を含む。操作入力部26は、検出部21から入力された複数の対象像の位置と、設定部25で設定された注目対象像と、さらには、操作入力部26に入力される操作方向と、に基づいて、注目対象像を変更する。例えば、「Type B」の第1像81が注目対象像に設定されている場合、注目対象像を、「Type A」の第2像82または「Type C」の第5像85に変更する変更処理を実施する。
操作取得部26aは、図22(b)に表すように、情報処理装置114の表示画面上に設けられた操作領域26dにおいて、作業者80によるドラッグ方向を検知して操作方向を取得する。ここでは右上に操作したとする。
相対座標算出部26bは、算出部23で求めた注目対象像(第1像81)を起点とした相対座標(第1位置関係51、第3位置関係53)に基づいて、どの方向にどの対象像が存在するかを求める。本例においては、X軸及びY軸にて操作方向を分割し、4象限、つまり、(−、−)、(−、+)、(+、+)、(+、−)のそれぞれの位置に存在する対象像を特定する。図22(c)に算出結果を示す。
対象像変更部26cは、操作取得部26aで取得した操作方向と、相対座標算出部26bで特定した対象像と、を対応付けて、注目対象像を変更する。ここでは、第1像81の右上(相対座標(+、+))に位置する「Type C」の第5像85に注目対象像が変更される。または、第1像81の左上(相対座標(−、+))に位置する「Type A」の第2像82に注目対象像が変更される。
図23(a)〜図23(c)は、第5の実施形態に係る関連情報の表示結果を例示する模式図である。
図23(a)は、操作前における関連情報の表示結果を例示する図である。
図23(b)は、操作中の画面を例示する図である。
図23(c)は、操作後における関連情報の表示結果を例示する図である。
図23(a)〜図23(c)に表すように、操作入力部26により第5像85に注目対象像が変更されると、表示制御部24は、第5像85に対応付けられている第3関連情報43を、第1画像61に重畳して表示させる。
一方、操作入力部26により第2像82に注目対象像が変更されると、表示制御部24は、第2像82に対応付けられている第2関連情報42を、第1画像61に重畳して表示させる。
なお、操作入力部26により注目対象像を選択する方法としては、画面上の対象像を直接タッチして注目対象像を選択する方法、トグル操作により注目対象像を選択する方法、同じ方向に複数の対象像がある場合でもドラッグ操作の長さに応じて注目対象像を選択する方法、など様々な実現手段が考えられる。
このように、実施形態によれば、作業者が注目対象像を主体的に変更する操作入力部を備えることで、関連情報の継続表示を終了したいタイミングにおいて、関連情報の表示内容を切り替えることができる。これにより、関連情報の見易い表示が可能となる。
(第6の実施形態)
図24は、第6の実施形態に係る情報処理装置を例示するブロック図である。
実施形態に係る情報処理装置115は、デスクトップ型またはラップトップ型の汎用計算機、携帯型の汎用計算機、その他の携帯型の情報機器、撮像デバイスを有する情報機器、スマートフォン、その他の情報処理装置など、様々なデバイスによって実現可能である。
図24に表すように、実施形態の情報処理装置115は、ハードウェアの構成例として、CPU201と、入力部202と、出力部203と、RAM204と、ROM205と、外部メモリインターフェイス206と、通信インターフェイス207と、を含む。
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の情報処理装置による効果と同様な効果を得ることも可能である。上述の実施形態に記載された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、またはこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の情報処理装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合または読み込む場合はネットワークを通じて取得または読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等で動作するMW(ミドルウェア)などが実施形態を実現するための各処理の一部を実行してもよい。
さらに、実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した記録媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。また、記録媒体は1つに限らず、複数の記録媒体から実施形態における処理が実行される場合も、実施形態における記録媒体に含まれる。記録媒体の構成は何れの構成であってもよい。
なお、実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、実施形態における各処理を実行するためのものであって、パーソナルコンピュータ、マイクロコンピュータ等の1つからなる装置、あるいは、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、実施形態におけるコンピュータとは、パーソナルコンピュータに限らず、情報処理機器に含まれる演算処理装置、マイクロコンピュータ等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。
実施形態によれば、対象物に関連する関連情報を見易く表示可能な情報処理装置、情報処理方法及び情報処理プログラムが提供できる。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、取得部、処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した情報処理装置、情報処理方法及び情報処理プログラムを基にして、当業者が適宜設計変更して実施し得る全ての情報処理装置、情報処理方法及び情報処理プログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…取得部、 20…処理部、 21…検出部、 22…対応部、 23…算出部、 24…表示制御部、 25…設定部、 26…操作入力部、 26a…操作取得部、 26b…相対座標算出部、 26c…対象像変更部、 26d…操作領域、 30…表示部、 40…第1記憶部、 40a…関連情報、 41〜44…第1〜第4関連情報、 50…第2記憶部、 50a…位置関係、 51〜54…第1〜第4位置関係、 60…撮像部、 61、62…第1、第2画像、 61a…中心座標、 71〜75…第1〜第5対象物、 80…作業者、 80a…案内者、 81〜90…第1〜第10像、 91〜93…第1〜第3対象人物、 101〜103…第1〜第3像、 110〜115…情報処理装置、 201…CPU、 202…入力部、 203…出力部、 204…RAM、 205…ROM、 206…外部メモリインターフェイス、 207…通信インターフェイス、 a1〜a4…第1〜第4軸、 b1、b2…第1、第2位置、 c1、c2…第1、第2相対座標系、 d1〜d5…第1〜第5データ、 hd1〜hd8…第1〜第8向き、 t1、t2…第1、第2時刻、 RS…実空間

Claims (17)

  1. 第1時刻における第1画像であって、第1対象物の第1像及び第2対象物の第2像を含む第1画像と、前記第1時刻の後の第2時刻における第2画像であって、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む前記第2画像と、を取得する取得部と、
    前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する第1動作と、
    前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する第2動作と、
    を実施する処理部と、
    を備えた情報処理装置。
  2. 前記処理部は、
    前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、
    前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、
    をさらに実施する請求項1記載の情報処理装置。
  3. 前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、
    前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、
    前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、
    前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含み、
    前記処理部は、前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作をさらに実施する請求項2記載の情報処理装置。
  4. 前記第1状態は、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じである請求項3記載の情報処理装置。
  5. 前記第1動作は、前記第1像と、前記第2像と、を認識する動作をさらに含み、
    前記第2動作は、前記第3像と、前記第4像と、を認識する動作をさらに含み、
    前記第3像は、前記第1像と同じであり、
    前記第4像は、前記第2像と同じである請求項1〜4のいずれか1つに記載の情報処理装置。
  6. 前記認識は、文字、物体の形状、人の顔の少なくともいずれかの認識を含む請求項5記載の情報処理装置。
  7. 前記処理部は、前記第1位置関係を導出する動作をさらに実施する請求項1〜6のいずれか1つに記載の情報処理装置。
  8. 前記導出の前記動作は、前記第1像の中心と前記第1画像の中心との距離が、前記第2像の中心と前記第1画像の中心との距離よりも短い状態が所定時間継続したときに、前記第1位置関係を導出することを含む請求項7記載の情報処理装置。
  9. 前記第2像は、前記第1像の位置から一定の範囲内に位置し、
    前記第4像は、前記第3像の位置から前記範囲内に位置する請求項1〜8のいずれか1つに記載の情報処理装置。
  10. 前記第2動作は、前記変化の前記状態が前記第1状態と異なる第2状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させないことをさらに含む請求項1〜9のいずれか1つに記載の情報処理装置。
  11. 前記第2動作は、前記変化の前記状態が前記第1状態と異なる第2状態のときに、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させることをさらに含む請求項1〜9のいずれか1つに記載の情報処理装置。
  12. 前記第1画像は、第3対象物の第5像をさらに含み、
    前記第2画像は、前記第3像及び前記第4像とは異なる第6像をさらに含み、
    前記第1動作は、前記第1関連情報を、前記第1画像に重畳して表示させる第3データを生成することをさらに含み、
    前記第2動作は、前記変化の前記状態が前記第1状態であり、前記第1像を基準としたときの前記第5像の相対的な第3位置関係と、前記第3像を基準としたときの前記第6像の相対的な第4位置関係と、の間の変化の状態が第3状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第4データを生成することをさらに含む請求項1〜9のいずれか1つに記載の情報処理装置。
  13. 前記処理部は、前記基準を、前記第1像から前記第2像に変更する動作をさらに実施する請求項1〜12のいずれか1つに記載の情報処理装置。
  14. 前記変更の前記動作は、前記第2像に対応付けられた第2関連情報を、前記第1画像に重畳して表示させる第5データを生成することをさらに含む請求項13記載の情報処理装置。
  15. 操作入力部をさらに備え、
    前記処理部は、前記操作入力部により受け付けた操作入力に基づいて、前記変更の前記動作を実施する請求項13または14に記載の情報処理装置。
  16. 第1時刻における第1画像であって、第1対象物の第1像及び第2対象物の第2像を含む第1画像と、前記第1時刻の後の第2時刻における第2画像であって、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む前記第2画像と、を取得し、
    前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成し、
    前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する、 情報処理方法。
  17. 第1時刻における第1画像であって、第1対象物の第1像及び第2対象物の第2像を含む第1画像と、前記第1時刻の後の第2時刻における第2画像であって、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む前記第2画像と、を取得する処理と、
    前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する処理と、
    前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する処理と、
    をコンピュータに実施させる情報処理プログラム。
JP2015175827A 2015-09-07 2015-09-07 情報処理装置、情報処理方法及び情報処理プログラム Pending JP2017054185A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015175827A JP2017054185A (ja) 2015-09-07 2015-09-07 情報処理装置、情報処理方法及び情報処理プログラム
US15/252,428 US10235776B2 (en) 2015-09-07 2016-08-31 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015175827A JP2017054185A (ja) 2015-09-07 2015-09-07 情報処理装置、情報処理方法及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020002579A Division JP6805375B2 (ja) 2020-01-10 2020-01-10 情報処理装置、情報処理方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2017054185A true JP2017054185A (ja) 2017-03-16

Family

ID=58190631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015175827A Pending JP2017054185A (ja) 2015-09-07 2015-09-07 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (2)

Country Link
US (1) US10235776B2 (ja)
JP (1) JP2017054185A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
US20120216149A1 (en) * 2011-02-18 2012-08-23 Samsung Electronics Co., Ltd. Method and mobile apparatus for displaying an augmented reality
JP2013080394A (ja) * 2011-10-04 2013-05-02 Canon Inc 表示制御装置、表示制御装置の制御方法、プログラム
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
JP2013218597A (ja) * 2012-04-11 2013-10-24 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP2014006147A (ja) * 2012-06-25 2014-01-16 Alpine Electronics Inc 拡張現実システム
JP2014503923A (ja) * 2011-01-31 2014-02-13 クアルコム,インコーポレイテッド コンテキストアウェアな拡張相互作用
WO2014126966A1 (en) * 2013-02-14 2014-08-21 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd
WO2014137554A1 (en) * 2013-03-06 2014-09-12 Qualcomm Incorporated Disabling augmented reality (ar) devices at speed
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2015022737A (ja) * 2013-07-24 2015-02-02 富士通株式会社 情報処理装置、情報提供方法および情報提供プログラム
JP2015060241A (ja) * 2013-09-17 2015-03-30 ウエストユニティス株式会社 表示システム
WO2015072195A1 (ja) * 2013-11-13 2015-05-21 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2016206447A (ja) * 2015-04-23 2016-12-08 セイコーエプソン株式会社 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003167659A (ja) 2001-11-28 2003-06-13 Fujitsu Ltd 情報処理装置および情報オブジェクトの表示方法
US9204050B2 (en) 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
JP5755915B2 (ja) 2011-03-18 2015-07-29 新日鉄住金ソリューションズ株式会社 情報処理装置、拡張現実感提供方法、及びプログラム
JP2014191688A (ja) * 2013-03-28 2014-10-06 Sony Corp 情報処理装置、情報処理方法、及び、記憶媒体
US9367961B2 (en) * 2013-04-15 2016-06-14 Tencent Technology (Shenzhen) Company Limited Method, device and storage medium for implementing augmented reality
JP6108926B2 (ja) 2013-04-15 2017-04-05 オリンパス株式会社 ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法
JP6255706B2 (ja) 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
US9098934B2 (en) * 2013-06-27 2015-08-04 Hcl Technologies Limited Augmented reality system with correlation among multiple markers
US9669242B2 (en) * 2013-07-01 2017-06-06 L'oreal Compositions containing at least two phenolic compounds, a lipid-soluble antioxidant and at least one hydrotrope for cosmetic use
JP6352695B2 (ja) 2014-06-19 2018-07-04 株式会社東芝 文字検出装置、方法およびプログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
JP2014503923A (ja) * 2011-01-31 2014-02-13 クアルコム,インコーポレイテッド コンテキストアウェアな拡張相互作用
US20120216149A1 (en) * 2011-02-18 2012-08-23 Samsung Electronics Co., Ltd. Method and mobile apparatus for displaying an augmented reality
JP2013080394A (ja) * 2011-10-04 2013-05-02 Canon Inc 表示制御装置、表示制御装置の制御方法、プログラム
JP2013218597A (ja) * 2012-04-11 2013-10-24 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP2014006147A (ja) * 2012-06-25 2014-01-16 Alpine Electronics Inc 拡張現実システム
WO2014126966A1 (en) * 2013-02-14 2014-08-21 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd
WO2014137554A1 (en) * 2013-03-06 2014-09-12 Qualcomm Incorporated Disabling augmented reality (ar) devices at speed
JP2016513830A (ja) * 2013-03-06 2016-05-16 クアルコム,インコーポレイテッド 実速度で拡張現実(ar)デバイスを無効にする
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2015022737A (ja) * 2013-07-24 2015-02-02 富士通株式会社 情報処理装置、情報提供方法および情報提供プログラム
JP2015060241A (ja) * 2013-09-17 2015-03-30 ウエストユニティス株式会社 表示システム
WO2015072195A1 (ja) * 2013-11-13 2015-05-21 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2016206447A (ja) * 2015-04-23 2016-12-08 セイコーエプソン株式会社 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Also Published As

Publication number Publication date
US20170069137A1 (en) 2017-03-09
US10235776B2 (en) 2019-03-19

Similar Documents

Publication Publication Date Title
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US10082879B2 (en) Head mounted display device and control method
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
US10331209B2 (en) Gaze direction mapping
JP7131587B2 (ja) 情報処理システム、情報処理装置、情報処理方法およびプログラム
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
KR20160057867A (ko) 디스플레이 장치 및 그에 의한 이미지 처리 방법
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP2014029656A (ja) 画像処理装置および画像処理方法
JP7188240B2 (ja) 人検出装置および人検出方法
JP2011089784A (ja) 物体方向推定装置
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2017054185A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6805375B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US10489921B2 (en) Behavior analysis apparatus and behavior analysis method
Gupta et al. Hand gesture based region marking for tele-support using wearables
JP6858159B2 (ja) 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク
WO2014122879A1 (ja) 解析処理システム
JP2018190132A (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP2014038543A (ja) 指文字を認識するための文字認識システムおよびプログラム
JP2016162103A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
WO2022239291A1 (ja) 物体検知装置及び方法
JP2020021331A (ja) 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク
JP6945999B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191010