JP6849331B2 - デバイス及びコンピュータプログラム - Google Patents

デバイス及びコンピュータプログラム Download PDF

Info

Publication number
JP6849331B2
JP6849331B2 JP2016136533A JP2016136533A JP6849331B2 JP 6849331 B2 JP6849331 B2 JP 6849331B2 JP 2016136533 A JP2016136533 A JP 2016136533A JP 2016136533 A JP2016136533 A JP 2016136533A JP 6849331 B2 JP6849331 B2 JP 6849331B2
Authority
JP
Japan
Prior art keywords
projection
map
map information
information
projecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016136533A
Other languages
English (en)
Other versions
JP2018010025A5 (ja
JP2018010025A (ja
Inventor
寛基 浦島
寛基 浦島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016136533A priority Critical patent/JP6849331B2/ja
Publication of JP2018010025A publication Critical patent/JP2018010025A/ja
Publication of JP2018010025A5 publication Critical patent/JP2018010025A5/ja
Application granted granted Critical
Publication of JP6849331B2 publication Critical patent/JP6849331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

本発明はオブジェクトに関連付けられた情報の投射を行うデバイスに関する。
現実世界のオブジェクトに関連する情報を仮想的に、あるいは直接、該オブジェクトに重畳して表示するAR(Augmented Reality)技術が注目を集めている。AR技術の応用として眼鏡型デバイスや投射型デバイスなどが知られている。眼鏡型デバイスは透過型の表示画面を有し、現実世界のオブジェクトを背景とする位置に前景となるように関連する情報を表示させるデバイスである。投射型デバイスはプロジェクタなどで、現実世界のオブジェクトの上に関連情報を投射して表示させるデバイスである。但し、いずれのデバイスであっても、関連情報を表示させられるオブジェクトがある程度離れた位置に複数存在する環境では、各オブジェクトの位置やそこに到達するまでのルートが判らない場合がある。このような問題を解決する最も単純な方法は、表示画面に地図を表示する方法である。特許文献1には、表示する地図の形式をデバイスの姿勢に応じて、平面図、鳥瞰図、3D(3次元)画像のいずれかに変更する技術が開示されている。この技術によれば、画面に表示される内容と現実世界との対応関係をユーザに直感的に理解させることができるとされている。
特許第3920945号公報
本発明の一態様は、物体に関連付けられた関連情報を投射する投射手段と、前記物体の位置を表す地図情報を取得する地図情報取得手段と、前記投射手段による投射環境を検出する検出手段と、前記検出手段の検出結果が所定条件を満たす場合に、前記関連情報に代えて前記地図情報を前記投射手段に投射させる制御手段と、を有し、前記投射手段は、前記地図情報を二次元画像として投射した後、投射位置と同じ位置及び同じ方位で、所定角度以上傾いたことが前記検出手段で検出された場合に、傾いた後の地図情報を三次元画像に変換することを特徴とする。
本発明は、物体に関連付けられた拡張現実情報を表示するデバイスにおいて、前記物体の位置に関わる地図情報の表示を容易にすることを主たる課題とするものである。
本発明が提供するデバイスは、物体に関連付けられた関連情報を投射する投射手段と、前記物体の位置を表す地図情報を取得する地図情報取得手段と、前記投射手段による投射環境を検出する検出手段と、前記検出手段の検出結果が所定条件を満たす場合に、前記関連情報に代えて前記地図情報を前記投射手段に投射させる制御手段と、を有することを特徴とする。
本発明によれば、物体に関連付けられた拡張現実情報を表示するデバイスにおいて、前記物体の位置に関わる地図情報の表示が容易となるという効果が得られる。
(a),(b)はARシステムの活用例を示す模式図。 第1実施形態に係る投射型デバイスのハードウェア構成図。 第1実施形態に係る投射型デバイスのブロック図。 美術館を表す部分地図の例示図。 第1実施形態に係る投射型デバイスの制御処理の手順説明図。 地図投射判定部の詳細手順説明図。 (a)〜(e)は美術館における部分地図の例示図。 表示する部分地図のシフト量に関する制御テーブルの例示図。 地図投射処理の詳細手順説明図。 第1変形例に係る地図投射判定部の処理手順説明図。 第2変形例に係る地図投射判定部の処理手順説明図。 第3変形例に係る地図投射判定部の処理手順説明図。 (a),(b)は第3変形例により表示される地図の例示図。 第3変形例に係る投射部の処理手順説明図。 第2実施形態による屋外美術館の地図の例示図。 (a),(b)は第2実施形態により表示される部分地図の例示図。 第2実施形態に係る投射部の処理手順説明図。
図1(a)は、ARシステムを美術館の一室で利用する場合を想定した模式図である。美術館の展示室100を訪れた投射型デバイス102のユーザ101は、絵画104、106又は床に置かれたタペストリー107の中から、絵画104に対して投射型デバイス102を向けたとする。投影先の面103に絵画104があることを認識した場合、投射型デバイス102は、その絵画104に関する解説情報105を近傍に投射する。絵画106、タペストリー107についても同様である。絵画104等の提示品を閲覧した後、ユーザ101は、自分の周りにどのような部屋があり、解説情報を表示可能な展示品がどこに存在するのかがわからない場合がある。屋外でも、所望のオブジェクトに辿りつくためのルートがわからない場合がある。本実施形態では、このような場合に、展示品その他のオブジェクトとユーザ101との相対位置を直ちに把握可能にするデバイスの一例となる投射型デバイス102を提案するものである。
[第1実施形態]
第1実施形態では、図1(b)に示すようにオブジェクトと自分の位置の把握を容易にする地図108を投影する投射型デバイス102の構成例を説明する。
図2は、投射型デバイス102のハードウェア構成図である。投射型デバイス102は、CPU201、RAM202、ROM203をシステムバス208に接続したコンピュータを備える。CPU(Central Processing Unit)201は、本発明のコンピュータプログラムを実行することにより、コンピュータを投射型デバイス102として動作させる。
RAM(Random Access Memory)202はCPU201のワークエリアとして機能する。また、図示しない外部装置などから供給されるプログラムやデータを一時記憶する。さらに、CPU201と協働して、表示対象となる地図情報を取得する地図情報取得手段として機能する。地図情報は、対象物が存在する位置を表す全体地図のほか、その一部である部分地図を含む。RAM202は、さらに、CPU201と協働して、対象となる実オブジェクトである物体(以下、「対象物」という)に関連付けられた情報(以下、「関連情報」という)を取得する関連情報取得手段として機能する。さらに、各種判定に用いる所定条件などを保持する保持手段としても機能する。ROM(Read Only Memory)203は変更を必要としないプログラムや各種パラメータを格納する。なお、図示しないハードディスクドライブ装置などのストレージを備え、本発明のコンピュータプログラムをこのストレージにインストールするようにしてもよい。システムバス208には、入力装置204、出力装置205、ネットワーク・インタフェース206も接続されている。ネットワーク・インタフェース206には、ネットワーク207が接続される。
入力装置204は、GPSやBluetooth(登録商標),IMU(Inertial Measurement Unit:慣性を計測するセンサ群),地磁気センサ、物体を撮像可能な撮像装置(カメラ)などである。これらは、投射型デバイス102の現在位置、姿勢、所定の基準方位に対する相対方位、投射する方向に存在する物体、後述する投影面の傾きなどを把握するための計器ないし装置である。現在位置を表すデータを取得する場合、入力装置204は当該データの取得手段として機能する。出力装置205は、例えば情報を投射するためのプロジェクタ、あるいは音ないし音声を出力するためのスピーカーなどである。プロジェクタは情報の投射手段として機能し、スピーカーは音声を含む音を出力する音出力手段として機能する。ネットワーク・インタフェース206は、ネットワーク207を介して外部装置、及び/又は、記憶媒体などの周辺機器との間でデータ等の授受を行う通信手段として機能する。
CPU201が本発明のコンピュータプログラムを読み込んで実行することにより投射型デバイス102に形成される機能構成例を図3に示す。投射型デバイス102は、制御部301、対象物検出部302、対象物情報提示部303、地図投射判定部304、投射部305を有している。制御部301は地図情報の投射制御などを行う制御手段として機能する。
対象物検出部302は、出力装置205の一例となるプロジェクタによる投射環境を検出する検出手段として機能する。投射環境は、プロジェクタが関連情報を投射する方向及び投射先に形成される投影面の状態の少なくとも一方である。投影面の状態は、所定の基準面(法線ベクトルなど)に対する投影面の角度又は当該撮影面が形成される部位の材質である。投射する方向に存在する対象物あるいは投射型デバイス102のユーザの人体の一部(足など)の有無なども投影面の状態の一種となる。検出は、入力装置204の一例となる撮像装置で取得した画像や後述する各種センサによって行う。
対象物情報提示部303は、検出された対象物の関連情報を投射しようとする表示情報に重畳させ、もしくは出力装置205の他の例となるスピーカーから音ないし音声で提示する。地図投射判定部304は、プロジェクタから地図を投影するかどうかを判定する処理を行う。投射部305は制御部301で生成した情報を例えば上記のプロジェクタを通じて投射する投射手段として機能する。投射部305は、関連情報を対象物の表面又は当該対象物の近傍に投射するとともに、地図情報を関連情報と異なる部位に向けて投射する。これについては後述する。
ここで、制御部301の制御により対象物情報提示部303が提示する情報の一つである地図情報について説明する。図4は、図1(a),(b)に示された展示室100を有する美術館の地図の例示図である。この美術館における複数の展示室の配置は地図400で表される。地図400は上方向の方位が北とする。各展示室は、廊下を通じて往来が可能である。本実施形態では投射型デバイス102を持ったユーザ101が、展示室100に訪れているものとする。展示室100のレイアウトは、図1(a),(b)に示したとおりである。
次に、制御部301が行う制御手順を、図5を参照して説明する。制御部301は、投射先の対象物を検出する(S501)。対象物は撮像装置で取得した画像に対して対象物認識を行うことで検出が可能である。なお、検出に際して、対象物の種類や画像中の場所も特定する。対象物認識には、公知のパターン認識や機械学習などを用いることができる。なお、画像による対象物認識に代えて、GPSやBluetooth,IMU,地磁気センサを用いて投射型デバイス102の姿勢、方位を求め、その情報と対象物との位置関係から、投射先の対象物を検出してもよい。
投射先に対象物が存在した場合(S502:Y)、つまり、対象物を検出した場合、制御部301は、検出した対象物の関連情報をRAM202から取得する(S503)。なお、関連情報は、ネットワーク・インタフェース206を介して、外部装置や周辺機器から取得してもよい。その後、取得した関連情報を提示する(S504)。提示は、例えばプロジェクタを通じて対象物の表面又はその近傍に関連情報を表示(投影)させることで行う。提示後は処理を終了する。なお、ユーザと展示品との距離が離れていて、関連情報を投射してもユーザからは見づらい場合は、投射に代えて、あるいは、投射と共に、関連情報を出力装置205のスピーカーから音声で出力してもよい。
S502において、対象物を検出しなかった場合(S502:N)、制御部301は、地図投射判定処理を行う(S505)。地図投射判定処理については後述する。この地図投射判定処理において地図投射をしないと判定した場合(S506:N)、投射部305による地図情報の投射を制限し、直ちに処理を終了する。一方、地図投射をすると判定した場合(S506:Y)、後述する地図投射処理を行った後(S507)、処理を終了する。なお、地図投射処理前に地図投射判定処理を行うのは、タペストリー107のように床に展示物がある場合、展示物の上に地図情報を表示せず、展示物の関連情報だけを表示させるためである。言い換えれば、制御部301は、所定条件を満たす場合に、関連情報に代えて地図情報を投射部305に投射させるための制御を行うものである。
次に、S505における地図投射判定処理の手順を図6を参照して説明する。この処理は、地図投射判定部304が行う。地図投射判定部304は、投射型デバイス102の投射方向を検出する(S601)。投射方向の検出には入力装置204の一つであるIMUを用いることができる。具体的には、投射方向のベクトルとIMUから取得した重力加速度方向のベクトルからベクトル間の角度を求め、これを投射方向とする。但し、角度は、IMUによらず、他の角度センサ(ジャイロセンサ等)の検出結果を用いてもよい。
地図投射判定部304は、検出した投射方向が所定の角度、例えば20度以内の場合(S602:Y)、投射型デバイス102が「下向き」とみなし、投影面の傾きを検出する(S603)。投影面の傾きは投影面の法線ベクトルとして取得される。なお、投影面の傾きは撮像装置で取得した画像から推定してもよいし、焦点の深度を直接取得可能な撮像装置を用いて投影面までの距離を計測し、その情報を基に推定してもよい。
地図投射判定部304は、その後、投影面が水平かどうかを判定する(S604)。具体的には、上記の法線ベクトルと重力加速度方向の逆ベクトルとの間の角度を求め、それらの間の角度が一定の範囲内(例えば5度以内)であれば水平、そうでなければ水平でないと判定する。水平であった場合は(S604:Y)地図投射を行うと判定し(S605)、処理を終える。一方、水平でなかった場合は(S604:N)、地図投射を行わないと判定し(S606)、処理を終える。S602において投射型デバイス102が「下向き」でないと判定した場合(S602:N)も地図投射を行わないと判定する(S606)。
次に、制御部301の制御によって投射部305より投射される地図情報について説明する。制御部301は、ユーザの現在位置や投射環境の検出結果に応じて地図情報をシフトさせる。シフトさせる地図情報は、物体を含む複数の物体が存在する領域の全体地図の一部となる部分地図である。
図7(a)〜(e)は、図4で示した美術館の全体を表す全体地図の中でシフトする部分地図700の例を表す。図の矢印は投射型デバイス102が向いている方角(投射方向)を表している。図7(a)は投射型デバイス102を北向きでかつ真下に向けたときに投射される地図情報の例である。図7(b)〜(e)は、それぞれ図7(a)と同じ位置で、投射型デバイス102を北、西、東、南の方向に鉛直方向から20度傾けて投射した時に投射される地図情報の例である。各図の白い丸は各展示室に置かれている展示品を表す。マーク701は投射型デバイス102の位置、つまりユーザの(足の)現在位置を表す。
投射部305は、あらかじめ美術館全体の地図における部分地図700のシフト量の位置関係をRAM202に制御テーブルとして記憶する。この制御テーブルの一例を図8に示す。制御テーブルに記憶されるのは、上記位置関係を定量化したパラメータである。すなわち投射型デバイス102の鉛直方向からの角度によって、投影面に表示させる部分地図700の位置を、投射型デバイス102の基準位置、基準角度(法線ベクトル)を中心としたときに、どの程度のシフト量にするかを決定するパラメータである。図8の例では、投射型デバイス102の角度が法線ベクトルに対して0度から20度の範囲では、部分地図700のシフト量は線形に増加する。また、上記角度が20度から30度の間では、一定のシフト量(h/3)となるようにする。「h」は投影面の高さを表す。この制御テーブルの使い方については後述する。
次に、図5の地図投射処理(S507)の内容を図9を参照して詳しく説明する。この処理は、投射部305が行う。投射部305は、投射型デバイス102の現在位置を取得する(S901)。投射型デバイス102の現在位置は、入力装置204の一例となるGPSから取得するが、この例に限定されない。例えば、Bluetoothを用いて屋内に設置された位置決定デバイスから取得した位置情報、撮像装置から取得した画像、照明光に含まれる情報を基に推定してもよい。また、IMUや地磁気センサ等を用いて特定の位置からの移動距離を測定して現在位置を推定してもよい。そのほか、投射型デバイス102の位置を特定できる方法であればどのような方法であってもよい。
投射部305は、また、現在位置の周辺に存在するオブジェクト(展示物等)の情報を取得する(S902)。展示物の情報はあらかじめROM203に記憶された情報を取得してもよいし、ネットワーク・インタフェース206を介して、外部から取得してもよい。
その後、投射部305は、出力装置205の一例となるプロジェクタから図7(a)〜(e)に例示される部分地図700を投射する。投射する部分地図700には、美術館における展示品の位置と投射型デバイス102の現在位置(マーク701)とが表示される。このとき、美術館の全体地図における部分地図700の相対位置を表す情報と共に表示されるようにしてもよい。投射される部分地図700の向きや表示位置は、投射型デバイス102の水平方向の向きと、鉛直方向からの角度によって決定される。部分地図700の向きは、投射型デバイス102が向いている方位が上になるように表示される。また、部分地図700の表示位置は、図8に例示した制御テーブルに基づいて決定されるシフト量の分だけ、移動した方位と同じ方向に移動される。そのため、図7(a)のように投射型デバイス102を北向きでかつ真下に向けた場合は、投射型デバイス102の位置が中心に来る。その一方、そこから約20度傾けた場合は、図7(b)のように、現在位置を基準として、投影面の高さの1/3の分、先の地図を見ている状態になる。同様に、図7の(c)、(d)、(e)の部分地図700は、それぞれ投射型デバイス102を西、東、南に向けて、鉛直方向から約20度傾けている。そのため、図4に示した地図400の左、右、下方向がそれぞれ上になっていて、かつ表示位置が投射型デバイス102の位置から方位の方向にシフトした位置になっている。
以上のように、投射型デバイス102を「下向き」としたときに部分地図700を表示することで、ユーザ101である投射型デバイス102のユーザは、美術館全体における自身の現在位置を直感的に把握することができる。これにより、近隣のオブジェクト及び現在位置からそこに到達するためのルートについても容易に発見できるようになる。さらに、発見したオブジェクトに関する関連情報を容易に得ることが可能となる。
<第1変形例>
上述した実施形態では、投射型デバイス102を「下向き」にしたときに、ユーザの現在位置を含む部分地図700を投射する例について説明したが、本発明の適用範囲は、そのような例に限定されない。例えば、投影面が地面又は床に対して水平な場合のみ、つまり、投影面が壁でない場合にのみ地図表示を行うようにしてもよい。この場合の投射型デバイス102における処理手順は図5と同様であり、地図投射判定部304が行うS505の地図投射判定処理の内容が異なるものとなる。
図10は、第1変形例に係る地図投射判定処理の手順説明図である。地図投射判定部304は、撮像装置を用いて投影面の傾きを検出する(S1001)。投影面の傾きの検出方法及び水平であることを判定する方法は第1実施形態と同様である。地図投射判定部304は、また、投影面が水平かどうかを判定する(S1002)。水平である場合は(S1002:Y)後続の処理で地図投射を行うと判定し(S1003)、そうでない場合(S1002:N)は地図投射を行わないと判定する(S1004)。
以上のように、投影面が水平の場合に部分地図700を表示することで、投射型デバイス102のユーザは、自身の現在位置を直感的に把握し、当該現在位置を起点とした近隣のオブジェクト及びそこに至るルートを容易に発見できるようになる。
<第2変形例>
第2変形例では、投射型デバイス102からの投射により形成される投影面が床で(つまり第1変形例と同様、傾きが水平で)、その床の材質が所定の材質の場合にだけ地図表示を行う場合の例を説明する。この場合の投射型デバイス102の制御手順は図5と同様であり、S505で行う地図投射判定処理の内容だけが異なる。第2変形例において地図投射判定部304が実行する地図投射判定処理を図11を参照して説明する。
地図投射判定部304は、撮像装置を用いて投射先の材質を検出する(S1101)。美術館では、撮像装置から入力された画像とあらかじめ与えられた地面の画像とのパターン認識により、投影面の所定の材質かどうかを判定する(S1102)。本例では、床が絨毯かどうかを判定基準とする。これは例えば特定の美術館では特徴的な模様ないし凹凸の絨毯が敷かれていることが判明している場合に特に顕著な効果を奏する。すなわち、特徴的な模様ないし凹凸を有し、光の反射を防ぐような材質の特徴をあらかじめ記憶しておき、撮像装置で撮像した結果と比較することにより、判定基準に該当するかどうかの判定が容易となる。
もちろん床の材質は場所に合わせて絨毯以外のものを用いてもよいし、複数の材質に対応するようにしてもよい。また、認識しやすいように特定の柄などを持つ素材を床に設置し、それを認識してもよい。いずれにせよ、床にある素材の材質を認識できればいずれの方法であってもよい。
地図投射判定部304は、投影面の材質が絨毯の特徴を表していると判定される場合は(S1102:Y)後続の処理で地図投射を行うと判定し(S1103)、そうでない場合は(S1102:N)地図投射を行わないと判定する(S1104)。
以上のように、投射型デバイス102の投射先の面の材質が所定の材質の場合に地図投射を行うことで、ユーザは全体地図に対する自身の現在位置がどこかを把握して近隣のオブジェクト及びそこに至るまでのルートを容易に把握できるようになる。
<第3変形例>
第3変形例では、投射型デバイス102による投射先、すなわち投影面にユーザの身体の一部、例えばユーザの足が存在することを検出した場合に地図投射を行うと判定する場合の例を説明する。この場合の投射型デバイス102の制御手順は図5と同様であり、S505で行う地図投射判定処理の内容が異なる。第3変形例において地図投射判定部304が行う地図投射判定処理を図12を参照して説明する。
地図投射判定部304は、撮像装置を用いて投射方向の一定の範囲内にあるユーザの足を検出する(S1201)。ユーザの足の認識は、例えばあらかじめユーザの靴の画像をいくつか撮影しておき、それを機械学習により学習した結果を用いて行うことにより実現が可能である。また、深さ検出が可能な撮像装置を用いてユーザの体の骨格推定を行い、足先に当たる部分をユーザの足と推定してもよい。いずれにせよ、ユーザの足を認識する方法であればいずれの方法であってもよい。
地図投射判定部304は、ユーザの足が検出された場合は(S1202:Y)後続の処理で地図投射を行うと判定し(S1203)、そうでない場合は(S1202:N)地図投射を行わないと判定する(S1204)。ユーザの足の存在を認識することで、当該投影面には確実に対象物件が存在しないことをより確実に認識することができる。
次に、投射部305で投射する地図情報の一例について、図13に基づいて説明する。図13(a)は図7(a)と同様、投射型デバイス102を北向きでかつ真下(鉛直方向)に向けたときに投射される部分地図700の例を示す。図13(b)は図13(a)と同じ位置、同じ方位で、投射型デバイス102を鉛直方向を起点に所定角度、例えば約20度傾けて投射した場合に投射される部分地図700の例を表す。すなわち投射部305は、地図情報を二次元画像として投射した後、投射位置と同じ位置及び同じ方位で、所定角度以上傾いたことが検出された場合、傾いた後の地図情報を三次元画像に変換する。これにより、展示室100の絵画104、106やタペストリー107を実際の展示品と同じ見え方で表示されるように投射する。
投射部305で実行させる地図投射処理を図14を参照して説明する。S901とS902は、図9で示した処理と同様のため、説明を省略する。
投射部305は、投射している位置、つまり投影面の中心の位置と認識された足との距離を計算する(S1401)。次いで、計算された距離に応じて地図情報の表示形態を選択可能にする(S1402)。ここでは、その距離に応じて、投射する地図情報の視点の角度を傾けて、かつ拡大表示されるように投射するものとする。但し、この例に限定されない。また、ユーザの足の位置を示す画像を地図上の現在位置にマッピングさせる(S1403)。
このようにすることで図13(a)に示すように、投射型デバイス102を真下に向けているときは二次元画像に見えた部分地図が投射型デバイス102の投影面を足から徐々に遠ざけていくに従って図13(b)のように立体的な表示となって見える。さらに、特定の拡大率を超えたときに、展示物の表示を実際のものと同じ見え方で表示する。このような立体表示にすることで、今自分がいる部屋のどの方向にどのような展示品があるかを直感的に把握できるようになる。
以上のように、投射型デバイス102が投射する方向においてユーザの足を検出した場合に地図情報を投射することで、ユーザは自身の位置を把握し、近隣のオブジェクトを容易に発見できるようになる。
[第2実施形態]
第1実施形態では、投射型デバイス102を美術館などの屋内で使用する地図表示の例を説明したが、第2実施形態では、投射型デバイス102を屋外で使う場合の例を説明する。投射型デバイス102のハードウェア構成及び機能構成は、第1実施形態の場合と同じである。図15は、屋外美術館の地図情報の例示図である。屋外美術館は、散策可能なエリアを有している。図15に示された地図情報1500は上方向の方位を北とする。投射型デバイス102のユーザであるユーザは、グレーで示されたエリアを歩いて所々に設置された展示品を鑑賞することを想定する。
投射型デバイス102の投射部305が投射する地図情報の一例を図16を参照して説明する。図16(a)、(b)に示す地図情報は、図15で示した屋外美術館の全体地図の一部を表す部分地図1600である。図の矢印は投射型デバイス102を向けている方角を表している。図16(a)、(b)は投射型デバイス102を北向きに向けたときに表示される地図である。各地図の白い丸は屋外に設置された野外展示品を表す。マーク1601は投射型デバイス102の位置、つまりユーザの足の位置を表す。図16(b)の点線の矢印1603は、ユーザの現在位置を表すマーク1601から、野外展示品1602までのルートを示している。ルート表示の詳細については後述する。
第2実施形態における処理手順は図5と同様であり、S507で行う地図投射処理の内容が異なる。そのため、投射部305で実行させる地図投射処理を図17を参照して説明する。S901は図9で示した処理と同様のため、説明を省略する。
投射型デバイス102は、まず、現在位置から最近情報を取得した展示物までのルートを取得する(S1701)。ルート計算は投射型デバイス102上で処理してもよいし、ネットワーク・インタフェース206を介して外部装置で計算させ、結果を取得してもよい。
屋外美術館の地図情報と取得したルートがあればそれを合わせて上記のプロジェクタから投射する(S1702)。投射型デバイス102を持ったユーザが投射型デバイス102を下向きにすると図16(a)に示される地図が表示される。
また、ユーザが投射型デバイス102を野外展示品1602の方向に向けて美術品に関する関連情報を見たり聞いたりした後で下に向けると、図16(b)に示すように、地図情報と共にその美術品までのルートが表示される。このように展示品までに距離があり、そこへどのように向かえばよいかわからない屋外美術館のようなケースにおいても、第2実施形態によれば、展示品の正確な場所と共にルートも把握できるようになる。
以上のように、投射型デバイス102を下向きにしたときに地図情報を表示することで、ユーザは自身の現在位置を把握した上で、近隣のオブジェクトを容易に把握できるようになる。さらに、そのオブジェクトに至るまでのルートを投射することで、ユーザがどの方向に向かえばよいかが容易にわかるようになる。
以上の例では、関連情報を対象物の近傍に投射する例を示したがこれに限らない。例えば、色などを対象物の表面に直接投射してもよい。また各実施形態では、美術館での展示品の解説表示について説明したが、店舗での広告表示等への利用も可能である。また、AR技術で物体の関連情報を閲覧するためのデバイスは、投射型デバイスに限らない。例えば、カメラとディスプレイを備えたスマートホンやタブレット端末であって、カメラを物体に向けることでディスプレイに物体と該物体に重畳した関連情報を表示し、カメラを下向きにしたときに地図情報を表示してもよい。
また、本発明は、1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する態様でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (13)

  1. 物体に関連付けられた関連情報を投射する投射手段と、
    前記物体の位置を表す地図情報を取得する地図情報取得手段と、
    前記投射手段による投射環境を検出する検出手段と、
    前記検出手段の検出結果が所定条件を満たす場合に、前記関連情報に代えて前記地図情報を前記投射手段に投射させる制御手段と、
    を有し、
    前記投射手段は、前記地図情報を二次元画像として投射した後、投射位置と同じ位置及び同じ方位で、所定角度以上傾いたことが前記検出手段で検出された場合に、傾いた後の前記地図情報を三次元画像に変換することを特徴とする投射型デバイス。
  2. 物体に関連付けられた関連情報を投射する投射手段と、
    前記物体の位置を表す地図情報を取得する地図情報取得手段と、
    前記投射手段による投射環境を検出する検出手段と、
    現在位置を取得する取得手段と、
    前記検出手段の検出結果が所定条件を満たす場合に前記関連情報に代えて投射する前記地図情報又は前記関連情報を投射する際に、前記取得手段で取得した現在位置を表す画像をマッピングさせるように前記投射手段に投射させる制御手段と、を有することを特徴とする投射型デバイス。
  3. 前記制御手段は、前記検出手段による検出結果に応じて前記地図情報をシフトさせることを特徴とする、
    請求項に記載の投射型デバイス。
  4. 前記シフトさせる地図情報は、前記物体を含む複数の物体が存在する領域の全体地図の一部となる部分地図であることを特徴とする、
    請求項に記載の投射型デバイス。
  5. 音を出力する音出力手段をさらに備えており、
    前記制御手段は、前記関連情報を、前記投射手段に代えて又は前記投射手段と共に、前記音出力手段から出力させることを特徴とする、
    請求項1に記載の投射型デバイス。
  6. 前記投射環境は、前記投射手段による投射の方向及び投射先に形成される投影面の状態の少なくとも一方を検出することを特徴とする、
    請求項1、3乃至のいずれか一項に記載の投射型デバイス。
  7. 前記投影面の状態は、所定の基準面に対する前記投影面の角度又は当該投影面が形成される部位の材質であることを特徴とする、
    請求項6に記載の投射型デバイス。
  8. 前記検出手段は、前記投影面の角度を検出するものであり、
    前記制御手段は、検出された角度が水平でない場合は前記地図情報の投射を制限することを特徴とする、
    請求項に記載の投射型デバイス。
  9. 前記投影面の状態は、前記投影面における前記物体又はユーザの人体の一部の存在の有無であることを特徴とする、
    請求項に記載の投射型デバイス。
  10. 前記検出手段が前記投影面に前記物体又は前記人体の一部が存在することを検出した場合、前記制御手段は、前記投影面への前記地図情報の投射を制限することを特徴とする、
    請求項に記載の投射型デバイス。
  11. 前記検出手段が前記投影面に前記人体の一部が存在することを検出した場合、
    前記制御手段は、前記投影面の位置と前記人体の一部との距離に応じて、投影する地図情報の表示形態を選択可能にすることを特徴とする、
    請求項に記載の投射型デバイス。
  12. コンピュータを、物体に関連付けられた関連情報を投射する投射手段、
    前記物体の位置を表す地図情報を取得する地図情報取得手段、
    前記投射手段による投射環境を検出する検出手段、
    前記検出手段の検出結果が所定条件を満たす場合に、前記関連情報に代えて前記地図情報を前記投射手段に投射させる制御手段、として機能させるためのコンピュータプログラムであって、
    前記投射手段は、前記地図情報を二次元画像として投射した後、投射位置と同じ位置及び同じ方位で、所定角度以上傾いたことが前記検出手段で検出された場合に、傾いた後の地図情報を三次元画像に変換することを特徴とするコンピュータプログラム。
  13. コンピュータを、物体に関連付けられた関連情報を投射する投射手段、
    前記物体の位置を表す地図情報を取得する地図情報取得手段、
    前記投射手段による投射環境を検出する検出手段、
    現在位置を取得する取得手段
    前記検出手段の検出結果が所定条件を満たす場合に前記関連情報に代えて投射する前記地図情報又は前記関連情報を投射する際に、前記取得手段で取得した現在位置を表す画像をマッピングさせるように前記投射手段に投射させる制御手段、
    として機能させるためのコンピュータプログラム。
JP2016136533A 2016-07-11 2016-07-11 デバイス及びコンピュータプログラム Active JP6849331B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016136533A JP6849331B2 (ja) 2016-07-11 2016-07-11 デバイス及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016136533A JP6849331B2 (ja) 2016-07-11 2016-07-11 デバイス及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2018010025A JP2018010025A (ja) 2018-01-18
JP2018010025A5 JP2018010025A5 (ja) 2019-08-15
JP6849331B2 true JP6849331B2 (ja) 2021-03-24

Family

ID=60995500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016136533A Active JP6849331B2 (ja) 2016-07-11 2016-07-11 デバイス及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6849331B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110660238B (zh) * 2019-09-28 2021-08-27 徐州奥拉可电子科技有限公司 一种基于无人机投影的高危地段交通指挥台及其指挥方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5612929B2 (ja) * 2010-07-05 2014-10-22 大日本印刷株式会社 案内情報提供システム、制御装置、案内情報提供方法、及びプログラム
JP2015011360A (ja) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード 情報処理装置およびプログラム

Also Published As

Publication number Publication date
JP2018010025A (ja) 2018-01-18

Similar Documents

Publication Publication Date Title
US12039644B2 (en) Method and sytem for presenting a digital information related to a real object
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
KR102414587B1 (ko) 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체
CN111065891B (zh) 基于增强现实的室内导航系统
JP6050518B2 (ja) 実環境に仮想情報を表現する方法
KR101295712B1 (ko) 증강 현실 사용자 인터페이스 제공 장치 및 방법
US9672588B1 (en) Approaches for customizing map views
JP6674192B2 (ja) 画像処理装置と画像処理方法
KR20120017293A (ko) 증강 현실 제공 장치 및 방법
JPWO2019069575A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP5890359B2 (ja) 端末装置、表示方法、プログラム、および表示システム
KR101155761B1 (ko) 증강 현실에서 위치 정보를 표시하는 방법 및 장치
JP6849331B2 (ja) デバイス及びコンピュータプログラム
JP2009020906A (ja) 地図表示装置、地図上の位置を特定する方法、および、コンピュータプログラム
KR101404976B1 (ko) 3차원 매칭을 이용한 영상 기반의 보행 경로 poi표출 시스템
KR20120014976A (ko) 위치 정보를 이용한 증강 현실 장치
CN119604741A (zh) 使用单手的沉浸式数字地图导航
JP2011113127A (ja) オブジェクト位置決め装置及びオブジェクト位置決め方法
KR20180038698A (ko) 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법
KR20190056694A (ko) 디지털 소묘 요소가 태깅된 2.5차원 오브젝트를 활용한 가상 전시 공간 제공 방법
KR101318324B1 (ko) 영상 기반의 보행 경로 poi표출 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R151 Written notification of patent or utility model registration

Ref document number: 6849331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151