JP7222392B2 - 情報処理装置、情報処理方法および記録媒体 - Google Patents
情報処理装置、情報処理方法および記録媒体 Download PDFInfo
- Publication number
- JP7222392B2 JP7222392B2 JP2020507370A JP2020507370A JP7222392B2 JP 7222392 B2 JP7222392 B2 JP 7222392B2 JP 2020507370 A JP2020507370 A JP 2020507370A JP 2020507370 A JP2020507370 A JP 2020507370A JP 7222392 B2 JP7222392 B2 JP 7222392B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual object
- destination
- control unit
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/123—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
- G08G1/133—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
- G08G1/137—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Description
1.概要
2.実施形態の詳細
2.1.情報処理装置の構成例
2.2.情報処理装置の機能構成例
3.実施形態の詳細
3.1.屋外の例
3.2.環境の明るさへの対応
3.3.屋内の例
3.4.通過点への仮想オブジェクトの付加
3.5.エリア単位での表示
3.6.屋内の他の例
3.7.仮想空間への適用
3.8.透過度の制御の具体例
3.9.目的地が複数である場合
3.10.目的地までの距離の表示
3.11.電車を利用する場合
4.ハードウェア構成例
5.むすび
6.変形例
7.応用例
まず、本開示の実施形態の概要について説明する。近年、ユーザに仮想オブジェクトを提示することによってユーザの利便性を向上させる技術が知られている。例えば、ユーザに対して道および立体的な建造物などを含む地図を仮想オブジェクトの例として提示する技術が開示されている。より具体的には、描画対象の道と建造物との奥行き情報に基づいて建造物の陰になる道の部分を抽出し、抽出した道の部分を通常の道および建造物と区別可能な色または模様によって描画する技術が開示されている。
以下、本開示の実施形態の詳細について説明する。
まず、本開示の実施形態に係る情報処理装置の構成例について説明する。
続いて、情報処理装置10の機能構成例について説明する。
以下、本開示の実施形態の詳細について説明する。
図4は、地図情報151(図2)の例としての広域地図の例を示す図である。図4を参照すると、広域地図A11が示されている。広域地図A11は、俯瞰的な視点で描かれている。また、広域地図A11は、各地点の名称と緯度経度情報とが対応付けられて構成されている。地点の名称は、施設(例えば、建物、店舗など)の名称であってもよいし、背景(例えば、河川、鉄道の駅など)の名称であってもよい。広域地図A11には、視野E11(図1)に存在する実オブジェクトR11~R14(建物)が描かれている。なお、視野E11(図1)は、ユーザU1が方向G11に視線を向けているときにユーザU1に提供される。
ここで、ユーザが存在する環境の明るさは一定ではない場合も想定される。例えば、ユーザが屋外に夜間存在する場合には、屋外に日中存在する場合よりも環境の明るさは低いことが想定される。このとき、仮想オブジェクトを見やすくするため、仮想オブジェクトの(透過度)明るさは環境の明るさに応じて制御されるのが望ましい。かかる環境の明るさに応じた透過度の制御について説明する。
上記のようにして、ユーザU1の目的地が実オブジェクトR11(建物)の中の2階に存在する本屋であり、ユーザU1が本屋に到着した場合を想定する。例えば、情報処理装置10は、本屋に設置されたアクセスポイントに接続される。そして、取得部142によって、地図情報の例としてフロア地図および本棚内における本の配置地図が取得される。ユーザは、目的地の名称として、自分が探したい本のタイトルを設定する。
なお、ユーザの位置と目的地の位置との間に通過点が存在する場合もあり得る。例えば、ユーザの位置と目的地の位置とが異なるフロアに存在する場合などには、ユーザの位置と目的地の位置との間に、フロア移動部(例えば、階段、エスカレータおよびエレベータなど)などの通過点が存在し得る。このような場合には、目的地の位置の代わりに、または、目的地の位置に追加して、ユーザの視野内における通過点の位置に仮想オブジェクトが付加されれば、ユーザが目的地に辿り着くための手助けになる。そこで、表示制御部143は、ユーザの位置と目的地の位置との間に通過点が検出された場合、ユーザの位置情報と通過点の位置情報とに基づいて、ユーザの視野内における通過点の位置に仮想オブジェクト(第2の仮想オブジェクト)を付加するとよい。
上記では、ユーザの視野内における目的地の位置に仮想オブジェクトが付加される例を主に説明した。しかし、仮想オブジェクトが付加される単位は、目的地の位置そのものでなくてもよい。例えば、仮想オブジェクトが付加される単位は、目的地を含むエリアであってもよい。すなわち、表示制御部143は、ユーザの視野内における目的地を含むエリアに仮想オブジェクト(第1の仮想オブジェクト)を付加してもよい。このとき、表示制御部143は、ユーザの位置と目的地の位置との関係に基づいて、エリアの大きさを制御してもよい。
上記した例では、ユーザが屋内に存在する場合の例として、ユーザが本屋に存在する場合について説明した。その他にも、屋内の例として様々な例が想定される。例えば、ユーザが屋内の例として、マンションの内覧会で見学可能な家の内部に存在する場合を想定する。かかる場合には、フロア地図が、部屋の名称と部屋および通路それぞれの位置情報とが対応付けられて構成されていれば、ユーザの視野内における本の位置に仮想オブジェクトを付加する場合と同様にして、ユーザの視野内における部屋および通路の位置にも仮想オブジェクトが付加され得る。
上記では、拡張現実空間に対して仮想オブジェクトを配置する例を主に説明した。しかし、拡張現実空間に対して仮想オブジェクトする例と同様にして、仮想空間に対しても仮想オブジェクトが配置され得る。図14は、仮想空間への適用例を示す図である。図14を参照すると、ゲームアプリケーションの実行によって、ユーザの視野E61に仮想空間が提供されている。例えば、ゲームアプリケーションにおいては、各地点の位置情報が記憶されている。表示制御部143は、ユーザの位置情報と地点(通路など)の位置情報とに基づいて、ユーザの視野E61における地点(通路など)の位置に仮想オブジェクトV61を付加することが可能である。
続いて、仮想オブジェクトの透過度の制御の具体例について説明する。上記したように、表示制御部143は、ユーザの位置情報に基づいて、ユーザの視野内における所定の仮想オブジェクトの透過度を制御してよい。ここで、表示制御部143は、ユーザの視野内における目的地とは異なる地点の位置に仮想オブジェクト(第3の仮想オブジェクト)を付加し得る。このとき、表示制御部143は、ユーザの位置情報と地点の位置情報とに基づいて、所定の仮想オブジェクトとして、目的地とは異なる地点の位置に付加した仮想オブジェクトの透過度を制御し得る。
続いて、図22~図25を参照しながら、目的地が複数である場合について説明する。上記では、目的地が一つ設定される場合について主に説明した。しかし、複数の目的地が設定される場合もあり得る。そこで、表示制御部143は、取得部142によって複数の目的地の位置情報が取得された場合、ユーザの視野内における複数の目的地それぞれの位置に仮想オブジェクト(第1の仮想オブジェクト)を付加してよい。そして、表示制御部143は、所定の仮想オブジェクトとして複数の目的地それぞれの位置に付加した仮想オブジェクト(第1の仮想オブジェクト)の透過度を制御してよい。なお、表示制御部143は、ユーザが複数の目的地のいずれかに到着した場合、ユーザが到着した目的地の位置に付加される仮想オブジェクトを消去してもよい。
上記では、ユーザの位置と目的地の位置との距離は、特にユーザに提示されない場合を説明した。しかし、ユーザの位置と目的地の位置との距離は、ユーザに提示されてもよい。図26は、ユーザの位置と目的地の位置との距離の提示例を示す図である。図26を参照すると、表示制御部143によって、視野E80において、目的地として設定されている実オブジェクトR11とユーザの位置との距離D81が表示されている。なお、ユーザの位置と目的地の位置との距離の代わりに、あるいは、ユーザの位置と目的地の位置との距離に追加して、ユーザが目的地に到達するまでの所要時間が表示されてもよいし、ユーザが目的地に到着する予定時刻が表示されてもよい。
続いて、電車を利用するユーザに対して提示される仮想オブジェクトの例について説明する。図27は、電車を利用するユーザに対して提示される仮想オブジェクトの例について説明するための図である。図27に示されるように、ユーザが「出発地」から徒歩で「乗車駅」に移動し、「乗車駅」から(電車の)車内で「降車駅」に移動し、「降車駅」から徒歩で「目的地」に移動する場合を想定する。
次に、図28を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図28は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
以上説明したように、本開示の実施形態によれば、ユーザの位置情報と目的地の位置情報とを取得する取得部と、前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に第1の仮想オブジェクトを付加する表示制御部と、を備え、前記表示制御部は、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御する、情報処理装置が提供される。かかる構成によれば、実オブジェクトの視認性の低下を抑制しつつユーザにとって有用な仮想オブジェクトの提示を行う技術が提供される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
上記した本開示の実施形態の応用例について説明する。
(1)
ユーザの位置情報と目的地の位置情報とを取得する取得部と、
前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に関連付けて第1の仮想オブジェクトを付加する表示制御部と、を備え、
前記表示制御部は、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御する、
情報処理装置。
(2)
前記表示制御部は、前記ユーザの位置と前記目的地の位置との距離に基づいて、前記所定の仮想オブジェクトとして前記第1の仮想オブジェクトの透過度を制御する、
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記ユーザの位置と前記目的地の位置との前記距離が第1の閾値よりも小さい場合には、前記距離が前記第1の閾値よりも大きい場合と比較して、前記第1の仮想オブジェクトの透過度を上げる、
前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記ユーザの位置と前記目的地の位置との前記距離が第2の閾値よりも大きい場合には、前記距離が前記第2の閾値よりも小さい場合と比較して、前記第1の仮想オブジェクトの透過度を上げる、
前記(2)または(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記ユーザの位置と前記目的地の位置との間に通過点が検出された場合、前記ユーザの位置情報と前記通過点の位置情報とに基づいて、前記ユーザの視野内における前記通過点の位置に第2の仮想オブジェクトを付加する、
前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
前記表示制御部は、前記ユーザの視野内における前記目的地を含むエリアに前記第1の仮想オブジェクトを付加し、前記ユーザの位置と前記目的地の位置との関係に基づいて、前記エリアの大きさを制御する、
前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記ユーザの位置情報と前記目的地の位置情報と前記ユーザの方向とに基づいて、拡張現実空間における前記目的地の位置に前記第1の仮想オブジェクトを配置する、
前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、環境の明るさに基づいて、前記所定の仮想オブジェクトの透過度または前記所定の仮想オブジェクトを表示する表示部の明るさを制御する、
前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記表示制御部は、複数の目的地の位置情報が取得された場合、前記ユーザの視野内における前記複数の目的地それぞれの位置に前記第1の仮想オブジェクトを付加し、前記所定の仮想オブジェクトとして前記複数の目的地それぞれの位置に付加した前記第1の仮想オブジェクトの透過度を制御する、
前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記表示制御部は、前記目的地とは異なる地点の位置情報が取得された場合、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記ユーザの視野内における前記地点の位置に第3の仮想オブジェクトを付加し、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記所定の仮想オブジェクトとして前記第3の仮想オブジェクトの透過度を制御する、
前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記表示制御部は、前記ユーザの位置と前記地点の位置との距離に基づいて、前記第3の仮想オブジェクトの透過度を制御する、
前記(10)に記載の情報処理装置。
(12)
前記表示制御部は、前記ユーザの位置と前記地点の位置との距離が第3の閾値よりも小さい場合には、前記距離が前記第3の閾値よりも大きい場合と比較して、前記第3の仮想オブジェクトの透過度を上げる、
前記(11)に記載の情報処理装置。
(13)
前記表示制御部は、前記ユーザの位置と前記目的地の位置との距離または前記ユーザの位置が屋外であるか否かに基づいて、前記第3の閾値を制御する、
前記(12)に記載の情報処理装置。
(14)
前記表示制御部は、前記ユーザの位置と前記地点の位置との距離が第4の閾値よりも大きい場合には、前記距離が前記第4の閾値よりも小さい場合と比較して、前記第3の仮想オブジェクトの透過度を上げる、
前記(11)~(13)のいずれか一項に記載の情報処理装置。
(15)
前記表示制御部は、前記ユーザの位置と前記目的地の位置との距離または前記ユーザの位置が屋外であるか否かに基づいて、前記第4の閾値を制御する、
前記(14)に記載の情報処理装置。
(16)
前記表示制御部は、前記ユーザの位置から前記目的地の位置への方向と前記地点の位置とに基づいて、前記第3の仮想オブジェクトの透過度を制御する、
前記(11)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記表示制御部は、前記方向を基準として所定の角度以内の範囲に前記地点が存在するか否かに応じて、前記第3の仮想オブジェクトの透過度を制御する、
前記(16)に記載の情報処理装置。
(18)
前記表示制御部は、前記ユーザが移動しているか否かまたは前記ユーザの位置と壁面の位置との距離に基づいて、前記角度を制御する、
前記(17)に記載の情報処理装置。
(19)
ユーザの位置情報と目的地の位置情報とを取得することと、
前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に関連付けて第1の仮想オブジェクトを付加することと、を含み、
プロセッサにより、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御すること、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザの位置情報と目的地の位置情報とを取得する取得部と、
前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に関連付けて第1の仮想オブジェクトを付加する表示制御部と、を備え、
前記表示制御部は、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御する、
情報処理装置として機能させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
110 環境認識用撮像部
120 操作部
130 センサ部
131 照度センサ
132 地磁気センサ
133 GPSセンサ
140 制御部
141 自己位置推定部
142 取得部
143 表示制御部
150 記憶部
151 地図情報
160 通信部
170 表示部
Claims (19)
- ユーザの位置情報と目的地の位置情報とを取得する取得部と、
前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に関連付けて第1の仮想オブジェクトを付加する表示制御部と、を備え、
前記表示制御部は、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御し、
前記表示制御部は、前記目的地とは異なる地点の位置情報が取得された場合、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記ユーザの視野内における前記地点の位置に第3の仮想オブジェクトを付加し、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記所定の仮想オブジェクトとして前記第3の仮想オブジェクトの透過度を制御し、
前記第3の仮想オブジェクトの透過度は、前記第1の仮想オブジェクトの透過度よりも低く制御される、
情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記目的地の位置との距離に基づいて、前記所定の仮想オブジェクトとして前記第1の仮想オブジェクトの透過度を制御する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記目的地の位置との前記距離が第1の閾値よりも小さい場合には、前記距離が前記第1の閾値よりも大きい場合と比較して、前記第1の仮想オブジェクトの透過度を上げる、
請求項2に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記目的地の位置との前記距離が第2の閾値よりも大きい場合には、前記距離が前記第2の閾値よりも小さい場合と比較して、前記第1の仮想オブジェクトの透過度を上げる、
請求項2に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記目的地の位置との間に通過点が検出された場合、前記ユーザの位置情報と前記通過点の位置情報とに基づいて、前記ユーザの視野内における前記通過点の位置に第2の仮想オブジェクトを付加する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの視野内における前記目的地を含むエリアに前記第1の仮想オブジェクトを付加し、前記ユーザの位置と前記目的地の位置との関係に基づいて、前記エリアの大きさを制御する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置情報と前記目的地の位置情報と前記ユーザの方向とに基づいて、拡張現実空間における前記目的地の位置に前記第1の仮想オブジェクトを配置する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、環境の明るさに基づいて、前記所定の仮想オブジェクトの透過度または前記所定の仮想オブジェクトを表示する表示部の明るさを制御する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、複数の目的地の位置情報が取得された場合、前記ユーザの視野内における前記複数の目的地それぞれの位置に前記第1の仮想オブジェクトを付加し、前記所定の仮想オブジェクトとして前記複数の目的地それぞれの位置に付加した前記第1の仮想オブジェクトの透過度を制御する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記地点の位置との距離に基づいて、前記第3の仮想オブジェクトの透過度を制御する、
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記地点の位置との距離が第3の閾値よりも小さい場合には、前記距離が前記第3の閾値よりも大きい場合と比較して、前記第3の仮想オブジェクトの透過度を上げる、
請求項10に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記目的地の位置との距離または前記ユーザの位置が屋外であるか否かに基づいて、前記第3の閾値を制御する、
請求項11に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記地点の位置との距離が第4の閾値よりも大きい場合には、前記距離が前記第4の閾値よりも小さい場合と比較して、前記第3の仮想オブジェクトの透過度を上げる、
請求項10に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置と前記目的地の位置との距離または前記ユーザの位置が屋外であるか否かに基づいて、前記第4の閾値を制御する、
請求項13に記載の情報処理装置。 - 前記表示制御部は、前記ユーザの位置から前記目的地の位置への方向と前記地点の位置とに基づいて、前記第3の仮想オブジェクトの透過度を制御する、
請求項10に記載の情報処理装置。 - 前記表示制御部は、前記方向を基準として所定の角度以内の範囲に前記地点が存在するか否かに応じて、前記第3の仮想オブジェクトの透過度を制御する、
請求項15に記載の情報処理装置。 - 前記表示制御部は、前記ユーザが移動しているか否かまたは前記ユーザの位置と前記第3の仮想オブジェクトが表示される前記ユーザが認識する拡張現実空間における壁面の位置との距離に基づいて、前記角度を制御する、
請求項16に記載の情報処理装置。 - ユーザの位置情報と目的地の位置情報とを取得することと、
前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に関連付けて第1の仮想オブジェクトを付加することと、を含み、
プロセッサにより、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御し、
前記所定の仮想オブジェクトの透過度を制御することは、
前記目的地とは異なる地点の位置情報が取得された場合、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記ユーザの視野内における前記地点の位置に第3の仮想オブジェクトを付加し、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記所定の仮想オブジェクトとして前記第3の仮想オブジェクトの透過度を制御し、
前記第3の仮想オブジェクトの透過度は、前記第1の仮想オブジェクトの透過度よりも低く制御されること
を含む、情報処理方法。 - コンピュータを、
ユーザの位置情報と目的地の位置情報とを取得する取得部と、
前記ユーザの位置情報と前記目的地の位置情報とに基づいて、前記ユーザの視野内における前記目的地の位置に関連付けて第1の仮想オブジェクトを付加する表示制御部と、を備え、
前記表示制御部は、前記ユーザの位置情報に基づいて、前記視野内における所定の仮想オブジェクトの透過度を制御し、
前記表示制御部は、前記目的地とは異なる地点の位置情報が取得された場合、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記ユーザの視野内における前記地点の位置に第3の仮想オブジェクトを付加し、前記ユーザの位置情報と前記地点の位置情報とに基づいて、前記所定の仮想オブジェクトとして前記第3の仮想オブジェクトの透過度を制御し、
前記第3の仮想オブジェクトの透過度は、前記第1の仮想オブジェクトの透過度よりも低く制御される、
情報処理装置として機能させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018053051 | 2018-03-20 | ||
JP2018053051 | 2018-03-20 | ||
PCT/JP2019/000979 WO2019181153A1 (ja) | 2018-03-20 | 2019-01-16 | 情報処理装置、情報処理方法および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019181153A1 JPWO2019181153A1 (ja) | 2021-03-25 |
JP7222392B2 true JP7222392B2 (ja) | 2023-02-15 |
Family
ID=67987006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020507370A Active JP7222392B2 (ja) | 2018-03-20 | 2019-01-16 | 情報処理装置、情報処理方法および記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11403806B2 (ja) |
JP (1) | JP7222392B2 (ja) |
WO (1) | WO2019181153A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112639686A (zh) * | 2018-09-07 | 2021-04-09 | 苹果公司 | 在虚拟环境的影像和声音与真实环境的影像和声音之间转换 |
JP7442168B2 (ja) | 2019-10-07 | 2024-03-04 | 株式会社リトプラ | 映像処理システム |
JP7467074B2 (ja) | 2019-11-05 | 2024-04-15 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JPWO2021166878A1 (ja) * | 2020-02-17 | 2021-08-26 | ||
JP7294538B2 (ja) * | 2020-06-04 | 2023-06-20 | 三菱電機株式会社 | 建物の交通管理システム |
KR20220008118A (ko) | 2020-07-13 | 2022-01-20 | 삼성전자주식회사 | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 |
JP7300569B2 (ja) * | 2020-09-16 | 2023-06-30 | 株式会社雪雲 | 情報処理装置、情報処理方法およびプログラム |
US11828600B2 (en) * | 2021-09-29 | 2023-11-28 | Ncr Corporation | Indoor wayfinder interface and service |
KR20230069433A (ko) * | 2021-11-12 | 2023-05-19 | 삼성전자주식회사 | Ar 이미지의 휘도를 제어하는 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267249A (ja) | 2005-03-22 | 2006-10-05 | Denso Corp | 車両用情報表示システム |
JP2011191264A (ja) | 2010-03-16 | 2011-09-29 | Aisin Aw Co Ltd | 表示制御装置、方法およびプログラム |
JP2015172548A (ja) | 2014-03-12 | 2015-10-01 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム、及び記憶媒体 |
JP2016503160A (ja) | 2012-12-18 | 2016-02-01 | ノキア テクノロジーズ オーユー | ヘルメットベースのナビゲーション通知 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3473321B2 (ja) * | 1997-05-09 | 2003-12-02 | トヨタ自動車株式会社 | 車両用表示装置 |
EP2936443A1 (en) * | 2012-12-21 | 2015-10-28 | Metaio GmbH | Method for representing virtual information in a real environment |
US9959674B2 (en) * | 2013-02-26 | 2018-05-01 | Qualcomm Incorporated | Directional and X-ray view techniques for navigation using a mobile device |
US9519881B2 (en) * | 2013-10-21 | 2016-12-13 | Toyota Jidosha Kabushiki Kaisha | Estimating journey destination based on popularity factors |
US9760790B2 (en) * | 2015-05-12 | 2017-09-12 | Microsoft Technology Licensing, Llc | Context-aware display of objects in mixed environments |
US20170255258A1 (en) * | 2016-03-02 | 2017-09-07 | The Trustees Of Columbia University In The City Of New York | Imperceptible Automatic Field-of-View Restrictors to Combat VR Sickness and Cybersickness |
CN109640785A (zh) * | 2016-04-08 | 2019-04-16 | 维扎瑞尔股份公司 | 用于获得、聚集和分析视觉数据以评估人的视力性能的方法和系统 |
JP7149289B2 (ja) * | 2017-04-19 | 2022-10-06 | マジック リープ, インコーポレイテッド | ウェアラブルシステムのためのマルチモード実行およびテキスト編集 |
WO2018219900A1 (en) * | 2017-06-01 | 2018-12-06 | Philips Lighting Holding B.V. | A system for rendering virtual objects and a method thereof |
CN108196366B (zh) * | 2018-01-03 | 2020-07-31 | 京东方科技集团股份有限公司 | 一种调节显示亮度的方法和装置 |
-
2019
- 2019-01-16 US US16/980,103 patent/US11403806B2/en active Active
- 2019-01-16 WO PCT/JP2019/000979 patent/WO2019181153A1/ja active Application Filing
- 2019-01-16 JP JP2020507370A patent/JP7222392B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267249A (ja) | 2005-03-22 | 2006-10-05 | Denso Corp | 車両用情報表示システム |
JP2011191264A (ja) | 2010-03-16 | 2011-09-29 | Aisin Aw Co Ltd | 表示制御装置、方法およびプログラム |
JP2016503160A (ja) | 2012-12-18 | 2016-02-01 | ノキア テクノロジーズ オーユー | ヘルメットベースのナビゲーション通知 |
JP2015172548A (ja) | 2014-03-12 | 2015-10-01 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム、及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019181153A1 (ja) | 2021-03-25 |
WO2019181153A1 (ja) | 2019-09-26 |
US11403806B2 (en) | 2022-08-02 |
US20210027523A1 (en) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222392B2 (ja) | 情報処理装置、情報処理方法および記録媒体 | |
US10445945B2 (en) | Directional and X-ray view techniques for navigation using a mobile device | |
JP6090889B2 (ja) | コンテキスト認識ローカライズ、マッピング、および追跡 | |
EP3616035B1 (en) | Augmented reality interface for interacting with displayed maps | |
US20160275175A1 (en) | Information processing apparatus, information processing method, and program | |
US20140375684A1 (en) | Augmented Reality Technology | |
JP6809539B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20130119473A (ko) | 비-맵-기반의 모바일 인터페이스 | |
JPWO2014091824A1 (ja) | 表示制御装置、表示制御方法およびプログラム | |
US10546432B2 (en) | Presenting location based icons on a device display | |
US9672588B1 (en) | Approaches for customizing map views | |
US11676356B2 (en) | Using augmented reality markers for local positioning in a computing environment | |
US10984242B1 (en) | Virtual proximity compass for navigating artificial reality environments | |
JPWO2018220856A1 (ja) | ストリートビューワーシステム | |
US10338768B1 (en) | Graphical user interface for finding and depicting individuals | |
CN105222794A (zh) | 一种信息处理方法及电子设备 | |
JP2018206396A (ja) | ストリートビューワーシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7222392 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |