JP5728775B2 - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP5728775B2 JP5728775B2 JP2013505679A JP2013505679A JP5728775B2 JP 5728775 B2 JP5728775 B2 JP 5728775B2 JP 2013505679 A JP2013505679 A JP 2013505679A JP 2013505679 A JP2013505679 A JP 2013505679A JP 5728775 B2 JP5728775 B2 JP 5728775B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- content
- camera
- route
- reference line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 37
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012937 correction Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 description 46
- 238000000034 method Methods 0.000 description 34
- 230000007704 transition Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Description
本発明は、情報処理装置、及び情報処理方法の技術に関する。 The present invention relates to an information processing apparatus and an information processing method.
近年、拡張現実感(AR:Augumented Reality)に関する技術が注目されている。例えば、特許文献1には、ポータブルデバイスに内蔵されたカメラにより、カメラの視野にある特定のオブジェクトを認識し、ポータブルデバイスが、この認識に基づいて、適切なコンピュータグラフィックを作成し、このグラフィックを、表示装置に表示されている実世界の画像の上に重ね合わせることが開示されている。
In recent years, a technology related to augmented reality (AR) has attracted attention. For example, in
拡張現実感(AR:Augumented Reality)に関する従来技術として、場所に関連するコンテンツをカメラの映像に重ね合わせて表示するものがある。ここで、図1は、場所に関連するコンテンツをカメラの映像に重ね合わせて表示した一例を示す。 As a conventional technique related to augmented reality (AR), there is a technique in which content related to a place is displayed superimposed on a camera image. Here, FIG. 1 shows an example in which content related to a place is displayed superimposed on the video of the camera.
図1に示すように、コンテンツをカメラの映像に重ね合わせて表示する場合、GPS(Global Positioning System)の精度の影響により、コンテンツが適正な位置に表示されないといった問題がある。また、コンテンツの相互関係が現実空間と異なってしまうといった問題がある。 As shown in FIG. 1, when content is displayed superimposed on a camera image, there is a problem in that the content is not displayed at an appropriate position due to the influence of the accuracy of GPS (Global Positioning System). In addition, there is a problem that the interrelationship of contents differs from the real space.
本発明では、上記した背景に鑑み、コンテンツをカメラの映像に重ね合わせて表示する技術において、コンテンツを適正な位置に表示する技術を提供することを課題とする。 In the present invention, in view of the above-described background, it is an object of the present invention to provide a technique for displaying content at an appropriate position in a technique for displaying content superimposed on a camera image.
上述した課題を解決するため、本発明は、以下の手段を採用する。すなわち、本発明は、現実空間を撮影するカメラと、前記カメラによって撮影された現実空間に関する映像を表示する表示部と、前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得部と、前記取得部で取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御部と、を備え、前記制御部は、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定する。 In order to solve the above-described problems, the present invention employs the following means. That is, the present invention accesses a camera that captures a real space, a display unit that displays a video related to the real space captured by the camera, and a storage device that stores content to be displayed over the video, and Based on position information including the position and orientation of the camera, among the objects included in the video, the position information of the object that displays the content, the acquisition unit that acquires the content, and the content acquired by the acquisition unit A control unit that superimposes the image on the video and displays the image on the display unit, the control unit sets an azimuth reference line related to an azimuth and a distance reference line related to a distance on the screen, and the position information of the camera and the Based on the position information of the object, calculate the position of the object with respect to the camera, and based on the azimuth reference line, Identify a flat position, the distance based on the reference line identifies the vertical position of the object in the screen, specifies a display position of the object in the screen.
本発明によれば、画面に対して方位基準線と距離基準線を設定することで、カメラに対する対象物の位置を、画面上において水平方向と垂直方向の双方で特定することができる。すなわち、コンテンツを適正な位置に表示することができる。従来技術では、特に垂直方向の位置は考慮されておらず、同じ方向にコンテンツが重なる場合に、重なって表示されるのを防止する為、カメラから近い対象物のコンテンツを手前に表示させているにすぎなかった。これに対し、本発明では、垂直方向を含め、コンテンツを適正な位置に表示することができる。なお、本発明は、拡張現実感に関する技術(以下、AR技術ともいう)に幅広く適用できる。特に、本発明は、AR技術を利用したナビゲーション技術に好適に用いることができる。また、本発明は、カメラ、通信機能、コンピュータを備える装置として幅広く適用可能であるが、スーマートフォンや携帯電話機などの携帯端末として特に好適に用いることができる。 According to the present invention, by setting the azimuth reference line and the distance reference line on the screen, the position of the object relative to the camera can be specified in both the horizontal direction and the vertical direction on the screen. That is, the content can be displayed at an appropriate position. In the prior art, the position in the vertical direction is not particularly taken into consideration, and when content overlaps in the same direction, the content of the object close to the camera is displayed in the foreground to prevent it from being displayed overlapping. It was only. On the other hand, according to the present invention, the content can be displayed at an appropriate position including the vertical direction. The present invention can be widely applied to technologies relating to augmented reality (hereinafter also referred to as AR technology). In particular, the present invention can be suitably used for navigation technology using AR technology. In addition, the present invention can be widely applied as an apparatus including a camera, a communication function, and a computer, but can be particularly preferably used as a mobile terminal such as a smart phone or a mobile phone.
ここで、本発明に係る情報処理装置において、前記制御部は、前記画面に対して方位に関する方位基準線と距離に関する距離基準線を設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラの光軸に対する前記対象物の角度と、前記カメラから前記対象物までの距離を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定するようにしてもよい。カメラの光軸とは、カメラのレンズの中心を通り、かつレンズの平面と直交する軸を意味する。カメラから対象物までの距離とは、水平距離を意味する。上記のように角度と距離を算出することで、コンテンツを適正な位置に表示することができる。 Here, in the information processing apparatus according to the present invention, the control unit sets an azimuth reference line related to an azimuth and a distance reference line related to a distance to the screen, and sets the position information of the camera and the position information of the object Based on the angle of the object with respect to the optical axis of the camera and the distance from the camera to the object, to determine the horizontal position of the object on the screen based on the azimuth reference line, A vertical position of the object on the screen may be specified based on a distance reference line, and a display position of the object on the screen may be specified. The optical axis of the camera means an axis that passes through the center of the camera lens and is orthogonal to the plane of the lens. The distance from the camera to the object means a horizontal distance. By calculating the angle and distance as described above, the content can be displayed at an appropriate position.
また、本発明に係る情報処理装置において、前記対象物の位置情報には、対象物の形状を特定する3つ以上の対象点の位置情報が含まれ、前記制御部は、前記対象点の夫々について前記画面における水平位置及び垂直位置を特定し、特定された対象点を結ぶことで面を設定し、設定された面にテキストを設定することができる。従来の技術では、コンテンツ表示の自由度は制限されており、バルーン、ピン、写真、アイコンなどを表示できるにすぎなかった。しかしながら、本発明によれば、水平位置だけでなく垂直位置も精度よく画面上に表示させることができることから、コンテンツを建物の形状に合わせた態様など、従来にはない種々の態様で表示させることができる。 Further, in the information processing apparatus according to the present invention, the position information of the target object includes position information of three or more target points that specify the shape of the target object, and the control unit includes each of the target points. The horizontal position and the vertical position on the screen can be specified, the plane can be set by connecting the specified target points, and the text can be set on the set plane. In the prior art, the degree of freedom of content display is limited, and only balloons, pins, photos, icons, etc. can be displayed. However, according to the present invention, not only the horizontal position but also the vertical position can be displayed on the screen with high accuracy, so that the content can be displayed in various forms that are not conventional, such as a form that matches the shape of the building. Can do.
ここで、従来技術では、コンテンツが適正な位置に表示されないといった上述した課題に加えて、更にコンテンツが重なって見づらい、コンテンツが背景を占領して映像が見づらいといったことが懸念されていた。このような課題を解決するため、本発明に係る情報処理装置において、前記制御部は、前記映像を解析して前記現実空間を構成する景色の境界を含む境界基準線を前記画面に対して設定し、前記境界基準線を基準に前記コンテンツ表示位置を補正するようにしてもよい。境界基準線を算出し、基準線を基準にコンテンツの表示位置を補正することで、コンテンツを適正な位置に見やすく表示することができる。例えば、道路の境界としての境界基準線を設け、道路内には道路に関連するコンテンツのみが表示されるようにコンテンツを配置することで、より見やすくすることができる。 Here, in the prior art, in addition to the above-described problem that the content is not displayed at an appropriate position, there is a concern that the content is further overlapped and difficult to see, and the content occupies the background and the video is difficult to see. In order to solve such a problem, in the information processing apparatus according to the present invention, the control unit analyzes the video and sets a boundary reference line including a scene boundary constituting the real space for the screen. Then, the content display position may be corrected based on the boundary reference line. By calculating the boundary reference line and correcting the display position of the content based on the reference line, it is possible to display the content at an appropriate position in an easy-to-see manner. For example, by providing a boundary reference line as a road boundary and arranging the content so that only the content related to the road is displayed in the road, it is possible to make it easier to see.
また、本発明に係る情報処理装置において、前記制御部は、前記映像を解析して前記現実空間を構成する景色のうち、他の景色に優先して表示すべき景色の境界線を優先境界基準線として前記画面に対して設定し、前記優先境界基準線を基準に前記コンテンツ表示位置を補正するようにしてもよい。これにより、現実空間の映像として優先されるべき景色を確実に表示すると共に、映像に関連するコンテンツを適正位置に見やすく表示することができる。他の景色に優先して表示すべき景色は、目的に応じて予め設定することができる。例えば、本発明をAR技術を利用したナビゲーション技術として用いる場合には、「道路」を他の景色に優先して表示すべき景色に設定することができる。これにより、ナビゲーションをする際に最も重要となる「道路」を優先的に確実に表示することができる。他の景色には、建物や樹木等が例示される。 Further, in the information processing apparatus according to the present invention, the control unit analyzes a boundary of a scenery to be displayed with priority over other scenery among the scenery constituting the real space by analyzing the video. A line may be set for the screen, and the content display position may be corrected based on the priority boundary reference line. As a result, it is possible to reliably display the scenery that should be prioritized as the image in the real space, and to display the content related to the image at an appropriate position in an easy-to-see manner. The scenery to be displayed with priority over other scenery can be preset according to the purpose. For example, when the present invention is used as a navigation technique using the AR technique, “road” can be set as a scenery to be displayed with priority over other scenery. As a result, the “road” that is most important for navigation can be displayed with priority and reliability. Examples of other scenery include buildings and trees.
また、例えば、本発明に係る情報処理装置は、ナビゲーション装置として機能し、前記制御部は、前記境界基準線として、前記映像を解析して道路の境界線を算出し、前記道路の境界線内にあるコンテンツのうち、道路に関連するコンテンツ以外のコンテンツを該道路の境界線に対応する境界基準線の外へ配置するようにすることができる。これにより、道路を優先して表示することができ、本発明に係る情報処理装置を携帯端末型のナビゲーション装置として効果的に機能させることができる。 Further, for example, the information processing apparatus according to the present invention functions as a navigation device, and the control unit calculates the boundary line of the road by analyzing the video as the boundary reference line, and within the boundary line of the road The content other than the content related to the road can be arranged outside the boundary reference line corresponding to the boundary line of the road. Thereby, a road can be displayed preferentially, and the information processing apparatus according to the present invention can effectively function as a mobile terminal type navigation apparatus.
また、前記制御部は、前記道路の境界線の焦点を通る水平線を算出し、前記道路に関連するコンテンツ以外のコンテンツを前記水平線を基線として順次配置してもよい。水平線から順次配置することで、より見易い表示とすることができる。 In addition, the control unit may calculate a horizontal line that passes through the focal point of the boundary line of the road, and sequentially arrange content other than the content related to the road with the horizontal line as a base line. By arranging sequentially from the horizontal line, it is possible to make the display easier to see.
更に、前記制御部は、前記映像を解析して樹木や山を含む自然対象物の輪郭を含む稜線を算出し、前記自然対象物に関連するコンテンツを前記稜線よりも上方に配置してもよい。これにより、建物などの人工の構造物に関連するコンテンツの表示位置と自然対象物に関連するコンテンツの表示位置を区分けすることができ、より見易い表示とすることができる。なお、稜線には、一部に建物の輪郭としての稜線が含まれていてもよい。 Further, the control unit may analyze the video to calculate a ridge line including a contour of a natural object including a tree and a mountain, and dispose content related to the natural object above the ridge line. . Thereby, the display position of the content related to the artificial structure such as a building can be distinguished from the display position of the content related to the natural object, and the display can be made easier to see. The ridgeline may include a ridgeline as a building outline in part.
ここで、本発明は、上述した情報処理装置で実行される情報処理方法として特定することもできる。例えば、本発明は、現実空間を撮影するカメラと、前記カメラによって撮影された現実空間に関する映像を表示する表示部と、を備える情報処理装置で実行される情報処理方法であって、前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得ステップと、前記取得ステップで取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御ステップと、を備え、前記制御ステップでは、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定する。 Here, the present invention can also be specified as an information processing method executed by the information processing apparatus described above. For example, the present invention is an information processing method executed by an information processing apparatus including a camera that captures a real space, and a display unit that displays a video related to the real space captured by the camera. Based on the position information including the position and orientation of the camera, the storage device storing the content to be displayed in a superimposed manner is accessed, and the position information of the object for displaying the content among the objects included in the video, and the An acquisition step of acquiring content, and a control step of displaying the content acquired in the acquisition step on the video image on the display unit, wherein the control step includes a azimuth reference line related to a direction and a distance related to a distance. A reference line is set on the screen, and based on the position information of the camera and the position information of the object, Calculating the position of the object, specifying the horizontal position of the object on the screen based on the azimuth reference line, specifying the vertical position of the object on the screen based on the distance reference line, The display position of the object on the screen is specified.
また、本発明は、上述した情報処理装置とこのような情報処理装置へコンテンツを提供するコンテンツ管理サーバとを含む情報処理システムとして特定することもできる。また、本発明は、情報処理システムで実行される情報処理方法として特定してもよい。また、本発明は、情報処理装置や情報処理システムで実行される処理を実現させるプログラムや、そのようなプログラムを記録したコンピュータが読み取り可能な記録媒体として特定してもよい。この場合、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。なお、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。 The present invention can also be specified as an information processing system including the information processing apparatus described above and a content management server that provides content to such an information processing apparatus. Further, the present invention may be specified as an information processing method executed in the information processing system. Further, the present invention may be specified as a program that realizes processing executed by the information processing apparatus or the information processing system or a computer-readable recording medium that records such a program. In this case, the function can be provided by causing a computer or the like to read and execute the program of the recording medium. Note that a computer-readable recording medium is a recording medium that accumulates information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like. Say.
本発明によれば、コンテンツをカメラの映像に重ね合わせて表示する技術において、コンテンツを適正な位置に表示することができる。 According to the present invention, it is possible to display content at an appropriate position in the technology for displaying the content superimposed on the video of the camera.
次に、本発明の実施形態について図面に基づいて説明する。本実施形態では、本発明に係る情報処理装置をナビゲーション機能を有する携帯端末として機能させる場合を例に説明する。なお、実施形態では、このような携帯端末を含む情報処理システムについて説明する。 Next, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case where the information processing apparatus according to the present invention functions as a portable terminal having a navigation function will be described as an example. In the embodiment, an information processing system including such a portable terminal will be described.
[第一実施形態]
<構成>
図2は、第一実施形態に係る情報処理システム1の構成を示す。第一実施形態に係る情報処理システム1は、携帯端末2、コンテンツ管理サーバ3を備える。携帯端末2とコンテンツ管理サーバ3は、互いにネットワークを介して接続されている。ネットワークには、電話回線網を利用したインターネットが例示されるが、ネットワークは、携帯端末2とコンテンツ管理サーバ3を電気的に接続し、通信可能とできるものであれば良くその態様は特に限定されない。なお、図2では、携帯端末2が1台のみ示されているが、携帯端末2は複数台とすることができる。[First embodiment]
<Configuration>
FIG. 2 shows a configuration of the
(携帯端末)
携帯端末2は、予め所定のアプリケーションがインストールされることで、ナビゲーション装置として機能する。携帯端末2には、スマートフォン(例えば、Android携帯(Android:登録商標)やiphone(登録商標))が例示される。図3は、第一実施形態に係る携帯端末2の機能ブロック図を示す。携帯端末2は、制御部21、操作部22、表示部23、カメラ24、通信部25、位置情報取得部26、方位センサ27、記憶部28を含む。(Mobile device)
The
携帯端末の制御部21は、コンテンツ管理サーバ3からの情報、使用者(ユーザ)の操作指示に基づいて携帯端末2の各部を制御する。携帯端末の制御部21は、携帯端末のCPU211、携帯端末のメモリ212を含む。携帯端末のCPU211は、携帯端末2の各ハードウェアを制御し、また、携帯端末のメモリ212に記録された制御プログラムに従って、AR技術を用いたナビゲーション機能を有する携帯端末として機能させる。なお、携帯端末2が有する各機能に対応する機能部を設けるようにしてもよい。換言すると、各機能部は、携帯端末のCPU211上で実行されるコンピュータプログラムとして構成することができ、これらの各機能部は、専用のプロセッサとして構成してもよく、また、一つのプロセッサとして構成してもよい。携帯端末のメモリ212は、各種データや制御プログラムを記憶するメモリ(記憶媒体)で、書換え可能なフラッシュメモリ等により構成される。
The
各機能部には、以下が例示される。すなわち、解析部は、映像を解析して現実空間を構成する景色の境界を含む基準線を算出する。配置部は、解析部によって算出された基準線を基準にコンテンツを配置する。ナビゲーション部は、ルート探索の他、目的地までの経路表示や、解析部や配置部の解析結果に基づいてカメラ24で撮影された映像にコンテンツを重ね合わせて表示する。
Each function unit is exemplified as follows. That is, the analysis unit analyzes the video and calculates a reference line including the boundary of the scenery that forms the real space. The arrangement unit arranges the content based on the reference line calculated by the analysis unit. In addition to route search, the navigation unit displays the route to the destination, and displays the content superimposed on the video captured by the
携帯端末の操作部22は、使用者からの指示を受け付ける。携帯端末の操作部22は、例えばタッチパネルや、押釦等により構成される。本実施形態の携帯端末の操作部22は、タッチパネルによって構成されている。各種操作に応じて信号は、携帯端末の制御部21に入力される。
The
携帯端末の表示部23は、携帯端末の制御部21からの信号に基づき画像を表示する。携帯端末の表示部113は、例えば液晶ディスプレイ、有機ELディスプレイ等で構成される。本実施形態の携帯端末の表示部23は、タッチパネルによって構成されている。
The
カメラ24は、現実空間を撮影する。カメラ24は、光学系および受像素子を有する、デジタル画像を取得するモジュールによって構成される。取得されたデジタル画像は、携帯端末の表示部23に表示される。携帯端末2がARのナビゲーション装置として機能する場合には、取得された画像が携帯端末の記憶部28に保存され、コンテンツが重ね合わされた上で、携帯端末の表示部23に表示される。
The
携帯端末の通信部25は、ネットワークと接続して、コンテンツ管理サーバ3や他の携帯端末との通信等を行う。
The
位置情報取得部26は、一又は複数のGPS(Global Positioning System)衛星からのGPS信号に基づき携帯端末の位置を検出する。検出された位置に関する位置情報は、携帯端末の制御部21へ入力される。その結果、携帯端末の制御部21は、携帯端末2の位置を把握することが可能となる。なお、位置情報取得部26は、例えば一又は複数の無線通信基地局からの信号に基づいて携帯端末2の位置を検出するようにしてもよい。位置情報の取得は、既存の技術を適宜用いることができる。
The position
方位センサ27は、携帯端末2の方向(水平方向)・角度(垂直方向)を検出する。検出された、方向・角度に対応する信号は、携帯端末の制御部21に入力される。その結果、携帯端末の制御部21は、携帯端末2の方向・角度を把握することが可能となる。
The
携帯端末の記憶部28は、各種情報を記憶する。例えば、携帯端末の記憶部28は、カメラ24によって撮影された映像を記憶する。携帯端末の記憶部28は、例えば、半導体メモリ等により構成することができる。
The
(コンテンツ管理サーバ)
コンテンツ管理サーバ(以下、単にサーバともいう)3は、携帯端末2に提供するコンテンツの管理を行う。図4は、コンテンツ管理サーバの機能ブロック図を示す。コンテンツ管理サーバ3は、制御部31、操作部32、表示部33、通信部34、記憶部35を備え、制御部31は、CPU311、メモリ312を有する。(Content management server)
A content management server (hereinafter also simply referred to as a server) 3 manages content to be provided to the
サーバの操作部32は、例えば、キーボード、ポインティングデバイス、タッチパネル、操作ボタン等を含む。サーバの表示部33は、例えば、液晶表示装置、プラズマディスプレイパネル、CRT(Cathode Ray Tube)、エレクトロルミネッセンスパネル等を含む。サーバの通信部34には、例えば、ネットワークへの接続を実現する通信モジュール(例えば、ネットワークカード)が例示される。
The
サーバの制御部31は、CPU(中央演算処理装置)311、メモリ312、を備える。サーバのCPU311は、コンテンツ管理サーバ3の各ハードウェアを制御し、また、コンテンツ管理サーバ3に格納された制御プログラムに従って、コンテンツ・ルート管理部等の機能部を機能させる。機能部は、コンテンツ管理サーバのCPU311上で実行されるコンピュータプログラムとして構成することができる。また、これらの機能部は、専用のプロセッサとして構成してもよい。
The
コンテンツ・ルート管理部は、コンテンツ及びルートを管理する。具体的には、ユーザから投稿されるコンテンツやルートの受け付け、受け付けたコンテンツやルートのデータベースへの記録、コンテンツやルートが記憶されるデータベースの更新、携帯端末2からの要求に応じたコンテンツの提供等を行う。
The content / route management unit manages content and routes. Specifically, the content and route posted by the user, the recording of the received content and route in the database, the update of the database storing the content and route, the provision of the content in response to the request from the
サーバの記憶部35は、コンテンツ・ルート管理部の制御の下、コンテンツやルートを記憶する。コンテンツ管理サーバ3は、ハードディスクドライブ(以下、HDDとする。)や半導体メモリ等により構成することができる。
The
ここで、図5Aは、サーバの記憶部35に記憶されるコンテンツ管理のデータベースの一例を示す。データベースには、「識別番号」、「コンテンツ」、「緯度、経度、高さ」の項目が設けられ、各項目に対応する情報が格納されている。「識別番号」は、コンテンツ番号ともいい、コンテンツ毎に割り当てられた固有の識別情報である。「コンテンツ」は、場所に関する各種情報を含む。例えば、「コンテンツ」には、建物、道路、樹木、山などの名称、歴史に関する情報などが含まれる。なお、「コンテンツ」は、テキストデータに限定されるものではなく、画像データやイラストデータであってもよい。また、図5Bは、コンテンツ管理サーバの記憶部35に記憶されるルート管理のデータベースの一例を示す。データベースには、「識別番号」、「ルート」、「コンテンツリスト」の項目が設けられ、各項目に対応する情報が格納されている。「識別番号」は、ルート番号ともいい、ルート毎に割り当てられた固有の識別情報である。「ルート」は、経路に関する各種情報を含む。例えば、「ルート」には、食べ歩きルート、歴史堪能ルート、財布にやさしいルートが含まれる。「コンテンツリスト」には、各ルートを構成するコンテンツが含まれる。
Here, FIG. 5A shows an example of a content management database stored in the
<動作>
次に実施形態に係る情報処理システム1の動作について図面に基づいて説明する。なお、以下の説明では、携帯端末をAR技術を利用したナビゲーション装置として機能させる場合について説明する。<Operation>
Next, the operation of the
(携帯端末の画面遷移)
携帯端末2では、AR技術を利用したナビゲーション処理が行われる。図6は、携帯端末の画面遷移図を示す。また、図7Aから図7J及び図8Aから図8Fは、各画面を示す。携帯端末2は、AR技術を利用したナビゲーション装置として機能させる場合の関連画面として、図6に示すような画面を有する。具体的には、携帯端末2は、ホーム画面(G01)、オープニング画面(G02)、アプリ選択画面(G03)、操作説明画面(G04)、地域(県)選択画面(G05)、地区(市)選択画面(G06)、利用者入力画面(G07)、ルート一覧画面(G08)、地図画面(G09)、カメラ案内画面(G10)、メニュー画面(A)、言語選択画面(B)、ルート詳細画面(C)、バルーン表示変更画面(D)、情報詳細画面(E)、レーダ範囲変更画面(F)を有する。各画面の表示や画面の遷移は、携帯端末の制御部21が、使用者の操作に対応する信号、すなわち携帯端末の操作部22からの操作信号に基づいて行う。以下、各画面について説明する。(Mobile terminal screen transition)
In the
(ホーム画面)
ホーム画面(G01)は、携帯端末2が起動されることで表示される。すなわち、携帯端末の制御部21は、携帯端末2が起動され電力が供給されると、これを検知し、ホーム画面を携帯端末の表示部23に表示させる。ホーム画面では、携帯端末2にインストールされているアプリケーションのアイコンが表示される(図7A参照)。ホーム画面において、複数のアプリケーションを管理する管理アプリのアイコンが選択されると選択された管理アプリのオープニング画面へ遷移する。(Home Screen)
The home screen (G01) is displayed when the
(オープニング画面)
オープニング画面は、管理アプリのオープニング画面である。オープニング画面(G02)では、「ようこそ!」が表示される(図7B参照)。具体的には、ホーム画面において管理アプリのアイコンが選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23にオープニング画面を表示させる。なお、図7Bにおける、「戻る」ボタン及び「Menu」ボタンは、携帯端末2に設けられたハードウェアキーである。「戻る」ボタンを選択することで、前画面への遷移が可能である。また、「Menu」ボタンを選択することで、メニュー画面(A)への遷移が可能である。オープニング画面は数秒間表示され、その後アプリ選択画面に自動遷移する。(Opening screen)
The opening screen is the opening screen of the management application. On the opening screen (G02), “Welcome!” Is displayed (see FIG. 7B). Specifically, when a management application icon is selected on the home screen, the
(アプリ選択画面)
アプリ選択画面(G03)は、アプリケーションの選択画面である。アプリ選択画面では、「ナビアプリ」、「他アプリ」が表示される(図7C参照)。具体的には、オープニング画面に遷移後、携帯端末の制御部21は、予め設定された遷移時間をカウントし、携帯端末の表示部23にアプリ選択画面を表示させる。「ナビアプリ」は、AR技術を利用したナビゲーションを行うアプリケーションを起動させる選択領域であり、「他アプリ」は、それ以外のアプリケーションの選択画面へ遷移するための選択領域である。「ナビアプリ」が選択されると、操作説明画面へ遷移する。(App selection screen)
The application selection screen (G03) is an application selection screen. On the application selection screen, “navigation application” and “other application” are displayed (see FIG. 7C). Specifically, after the transition to the opening screen, the
(操作説明画面)
操作説明画面(G04)は、「ナビアプリ」の操作説明画面である。操作説明画面では、「1.地域(県)選択」、「2.市選択」、「3.利用者情報入力」、「4.ルート一覧」が表示される(図7D参照)。具体的には、アプリ選択画面において「ナビアプリ」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に操作説明画面を表示させる。「1.地域(県)選択」、「2.市選択」、「3.利用者情報入力」、「4.ルート一覧」は、夫々の説明画面へ遷移するための選択領域である。例えば、「1.地域(県)選択」が選択されると、地域(県)選択の説明が表示される。また、操作説明画面には、「開始(県選択)へ」、「メニュー」、「言語」が表示されている。「開始(県選択)へ」は、地域(県)選択画面へ遷移するための選択領域である。「メニュー」は、メニュー画面へ遷移するための選択領域である。「言語」は、言語選択画面へ遷移するための選択領域である。「開始(県選択)へ」が選択されると、地域(県)選択画面へ遷移する。(Operation explanation screen)
The operation explanation screen (G04) is an operation explanation screen of “navigation application”. On the operation explanation screen, “1. Region (prefecture) selection”, “2. City selection”, “3. User information input”, and “4. Route list” are displayed (see FIG. 7D). Specifically, when “navigation application” is selected on the application selection screen, the
(地域(県)選択画面)
地域(県)選択画面(G05)は、都道府県レベルで地域の選択を受け付ける画面である。図7Eでは、一例として、地域(県)選択画面において、「秋田県」、「青森県」、「岩手県」が表示されている。操作説明画面において「開始(県選択)へ」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に地域(県)選択画面を表示させる。「秋田県」、「青森県」、「岩手県」は、夫々の市町村レベルでの地域選択を受け付ける画面へ遷移するための選択領域である。例えば、「秋田県」が選択されると、地区(市)選択画面へ遷移する。(Region (prefecture) selection screen)
The region (prefecture) selection screen (G05) is a screen for accepting selection of a region at the prefectural level. In FIG. 7E, as an example, “Akita Prefecture”, “Aomori Prefecture”, and “Iwate Prefecture” are displayed on the region (prefecture) selection screen. When “start (prefecture selection)” is selected on the operation explanation screen, the
(地区(市)選択画面)
地区(市)選択画面(G06)は、市町村レベルで地域の選択を受け付ける画面である。図7Fでは、一例として、地区(市)選択画面において、「秋田市」、「鹿角市」、「にかほ市」が表示されている。地域(県)選択画面において「秋田県」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に秋田県に対応する地区(市)選択画面を表示させる。「秋田市」、「鹿角市」、「にかほ市」は、利用者情報入力画面へ遷移するための選択領域である。例えば、「秋田市」が選択されると、利用者入力画面へ遷移する。(District (city) selection screen)
The district (city) selection screen (G06) is a screen for accepting selection of a region at the municipal level. In FIG. 7F, as an example, “Akita City”, “Kazuno City”, and “Nikaho City” are displayed on the district (city) selection screen. When “Akita” is selected on the region (prefecture) selection screen, the
(利用者入力画面)
利用者入力画面(G07)は、利用者の情報入力を受け付ける画面である。利用者入力画面では、「性別」、「年代」、「散策時間」、「旅の項目」、「ルート一覧」の項目が表示される(図7G参照)。地区(市)選択画面において例えば「秋田市」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に利用者入力画面を表示させる。「性別」、「年代」、「散策時間」、「旅の項目」には、選択肢が設けられており、利用者は選択肢から利用者情報を入力することができる。「性別」では、「男」、「女」からの選択が可能である。「年代」では、「10代」、「20代」といった年代からの選択が可能である。「散策時間」では、「30分」、「1時間」といった所定の時間単位からの選択が可能である。「旅の目的」では、「観光」、「食事」などの旅の目的からの選択が可能である。各項目を選択後、「ルート一覧」が選択されると、ルート一覧画面へ遷移する。(User input screen)
The user input screen (G07) is a screen for accepting user information input. On the user input screen, items of “sex”, “age”, “walking time”, “journey item”, and “route list” are displayed (see FIG. 7G). When, for example, “Akita City” is selected on the district (city) selection screen, the
(ルート一覧画面)
ルート一覧画面(G08)は、ルートの検索結果を表示する画面である。ルート一覧画面では、検索結果として、「食べ歩きルート」、「歴史堪能ルート」、「お財布にやさしいルート」、「温泉めぐりルート」等が表示される(図7H参照)。利用者入力画面において例えば「ルート一覧」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の通信部25を介して、検索条件をコンテンツ管理サーバ3へ送信し、検索結果を受信する。そして、携帯端末の制御部21は、携帯端末の表示部23に検索結果を含むルート一覧画面を表示させる。「食べ歩きルート」、「歴史堪能ルート」、「お財布にやさしいルート」、「温泉めぐりルート」は、ルート詳細画面へ遷移するための選択領域である。例えば、「歴史堪能ルート」が選択されると、ルート詳細画面へ遷移する。(Route list screen)
The route list screen (G08) is a screen for displaying a route search result. On the route list screen, “eating and walking route”, “historic route”, “wallet friendly route”, “hot spring tour route”, etc. are displayed as search results (see FIG. 7H). For example, when “route list” is selected on the user input screen, the
(ルート詳細画面)
ルート詳細画面(C)は、ルートの詳細を表示する画面である。ルート詳細画面では、ルート上の駅名や所要時間などが表示される(図8C参照)。ルート一覧画面において例えば「歴史堪能ルート」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23にルート詳細画面を表示させる。ルート詳細画面に含まれる情報は、ルート一覧画面を表示する際にコンテンツ管理サーバ3から取得してもよく、また、ルート詳細画面を表示する際にコンテンツ管理サーバ3から取得してもよい。ルート詳細画面では、更に「ルート決定」、「戻る」も表示されている。「ルート決定」は、地図画面へ遷移するための選択領域である。「戻る」は、前画面、すなわちルート一覧画面へ遷移するための選択領域である。「ルート決定」が選択されると、地図画面へ遷移する。(Route details screen)
The route detail screen (C) is a screen that displays the details of the route. On the route details screen, the name of the station on the route, the required time, etc. are displayed (see FIG. 8C). When, for example, “historic route” is selected on the route list screen, the
(地図画面)
地図画面(G09)は、選択されたルートの地図画面(俯瞰情報)を表示する。地図画面では、地図とともに、「案内開始ポイント」、「案内終了ポイント」、「バルーン」が表示される(図7I参照)。ルート詳細画面において「ルート決定」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の通信部25を介して、選択されたルート、現在地をコンテンツ管理サーバ3へ送信し、地図画面のデータを受信する。そして、携帯端末の制御部21は、携帯端末の表示部23に地図画面を表示させる。「案内開始ポイント」は、案内を開始する場所であり、「案内終了ポイント」は、案内を終了する場所である。「バルーン」は、お勧め場所に設けられており、「バルーン」が選択されると、場所ごとの説明が表示される。「バルーン」は、例えばジャンル毎に色分けされる。ジャンルには、施設、食べる、買う、道、川、山、休憩所、トイレ、駐車場が例示される。なお、「バルーン」に代えて、「ピン」、「写真」、「イラスト」、「アイコン」等を用いてもよい。また、地図画面には、更に、「メニュー」、「言語」、「カメラ」、「現在地」、「表示変更」が表示される。「カメラ」は、カメラ案内画面へ遷移するための選択領域である。「現在地」は、現在地を中心に移動する地図画面へ遷移するための選択領域である。「表示変更」は、バルーン表示変更画面へ遷移するための選択領域である。「カメラ」が選択されると、カメラ案内画面へ遷移する。(Map screen)
The map screen (G09) displays a map screen (overhead information) of the selected route. On the map screen, “guidance start point”, “guidance end point”, and “balloon” are displayed together with the map (see FIG. 7I). When “Route determination” is selected on the route detail screen, the
(カメラ案内画面)
カメラ案内画面(G10)は、カメラ24で撮影された映像にコンテンツを重ね合わせた視界情報(現実空間統合画面)を表示する。カメラ案内画面では、カメラ24で撮影された映像に、「レーダ」、「バルーン」が表示される(図7J参照)。地図画面において「カメラ」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部23に入力される。携帯端末の制御部21は、カメラ24で撮影された映像を携帯端末の記憶部28に記憶させると共に、コンテンツ管理サーバ3から取得したコンテンツを上記映像に重ね合わせ、カメラ24で撮影された映像にコンテンツが重ね合わされたカメラ案内画面を携帯端末の表示部23に表示させる。画面右下の円は、レーダのイメージビュー(以下、レーダ表示とする)であり、このレーダ表示には、自分(携帯端末の使用者)を中心に周囲の観光地情報などが種類で色分けされて表示される。「レーダ表示」を選択するとレーダ範囲変更画面への遷移が可能である。画面中央下の矢印は、次の目的地までの方角を示し、矢印の横には距離が合わせて表示される。この矢印と共に表示される距離は、次の目的地までの距離を示す。地図画面と同じくカメラ案内画面にも「バルーン」が表示され、「バルーン」の下にはバルーンに対応する場所までの距離が表示される。また、カメラ案内画面には、地図画面と同様の「メニュー」、「言語」、「表示変更」が表示される。更に、カメラ案内画面には、「地図」が表示され、この「地図」は、地図画面へ遷移するための選択領域である。(Camera guidance screen)
The camera guidance screen (G10) displays view information (real space integrated screen) in which content is superimposed on video captured by the
(メニュー画面)
メニュー画面(A)は、ナビアプリのメニューを表示する画面である。メニュー画面には、「利用者情報入力画面へ」、「ルート一覧画面へ」、「ナビアプリ終了」が表示される(図8A参照)。アプリ選択画面、操作説明画面、地域(県)選択画面、地区(市)選択画面、利用者入力画面、ルート一覧画面、地図画面、及びカメラ案内画面において「メニュー」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23にメニュー画面を表示させる。「利用者情報入力画面へ」は、利用者情報入力画面へ遷移するための選択領域である。「ルート一覧画面へ」は、ルート一覧画面へ遷移するための選択領域である。「ナビアプリ終了」は、アプリ選択画面へ遷移するための選択領域である。(Menu screen)
The menu screen (A) is a screen that displays a menu of the navigation application. On the menu screen, “go to user information input screen”, “go to route list screen”, and “end navigation application” are displayed (see FIG. 8A). When “Menu” is selected on the application selection screen, operation explanation screen, region (prefecture) selection screen, district (city) selection screen, user input screen, route list screen, map screen, and camera guidance screen, the mobile terminal The
(言語選択画面)
言語選択画面(B)は、ナビアプリで使用するテキストの選択を受け付ける画面である。言語選択画面には、「日本語」、「English」、「中国語」、「韓国語」が表示される(図8B参照)。アプリ選択画面、操作説明画面、地域(県)選択画面、地区(市)選択画面、利用者入力画面、ルート一覧画面、地図画面、及びカメラ案内画面において「メニュー」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に言語選択画面を表示させる。言語選択画面において「日本語」、「English」、「中国語」、「韓国語」の何れかが選択されると、ナビアプリの使用言語が変更される。なお、言語選択画面に表示される言語は、上記に限定されない。(Language selection screen)
The language selection screen (B) is a screen that accepts selection of text used in the navigation application. On the language selection screen, “Japanese”, “English”, “Chinese”, and “Korean” are displayed (see FIG. 8B). When “Menu” is selected on the application selection screen, operation explanation screen, region (prefecture) selection screen, district (city) selection screen, user input screen, route list screen, map screen, and camera guidance screen, the mobile terminal The
(バルーン表示変更画面)
バルーン表示変更画面(D)は、地図画面及びカメラ案内画面で表示されるバルーン表示の設定を変更する画面である。バルーン表示変更画面には、バルーンのジャンルとして「施設」、「食べる」、「買う」、「道・川」、「山」、「休憩所・トイレ」、「駐車場」及び夫々に対応するチェックボックスが表示される(図8D参照)。地図画面、及びカメラ案内画面において「表示変更」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に言語選択画面を表示させる。バルーン表示変更画面において「施設」、「食べる」、「買う」、「道・川」、「山」、「休憩所・トイレ」、「駐車場」の何れかが選択され(チェックボックスがチェックされ)、「決定」が選択されると、遷移元の画面(地図画面又はカメラ案内画面)へ遷移する。(Balloon display change screen)
The balloon display change screen (D) is a screen for changing settings of balloon display displayed on the map screen and the camera guide screen. In the balloon display change screen, check the corresponding genres of balloons as “facility”, “eat”, “buy”, “road / river”, “mountain”, “rest area / toilet”, “parking lot” and each. A box is displayed (see FIG. 8D). When “display change” is selected on the map screen and the camera guidance screen, the
(情報詳細画面)
情報詳細画面(E)は、地図画面及びカメラ案内画面で表示されるバルーンに対応する場所の詳細情報を表示する。情報詳細画面には、例えば、お店のお勧め品やイメージ画像が表示される(図8E参照)。地図画面、及びカメラ案内画面において「バルーン」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に選択された「バルーン」に対応する詳細情報を表示させる。情報詳細画面において「戻る」が選択されると、遷移元の画面(地図画面又はカメラ案内画面)へ遷移する。(Information details screen)
The information detail screen (E) displays detailed information on the location corresponding to the balloon displayed on the map screen and the camera guidance screen. On the information detail screen, for example, recommended products and images of shops are displayed (see FIG. 8E). When “balloon” is selected on the map screen and the camera guidance screen, the
(レーダ範囲変更画面)
レーダ範囲変更画面(F)は、カメラ案内画面で表示されるレーダ表示の範囲を変更する画面である。レーダ範囲変更画面には、「50m」、「100m」、「200m」、「500m」、「1km」、「2km」、「3km」が表示される(図8F参照)。カメラ案内画面において「表示変更」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、レーダ範囲変更画面を表示させる。レーダ範囲変更画面において何れかの範囲が選択されると、カメラ案内画面へ遷移する。(Radar range change screen)
The radar range change screen (F) is a screen for changing the radar display range displayed on the camera guidance screen. On the radar range change screen, “50 m”, “100 m”, “200 m”, “500 m”, “1 km”, “2 km”, and “3 km” are displayed (see FIG. 8F). When “display change” is selected on the camera guidance screen, the
(コンテンツ管理サーバの動作)
コンテンツ管理サーバ3では、コンテンツの管理、ルートの管理、コンテンツ・ルートの検索等が行われる。(Content management server operation)
The
まず、コンテンツの管理について説明する。コンテンツの管理には、コンテンツ情報の新規登録(以下、コンテンツ登録処理という)と既に登録されているコンテンツの変更(以下、コンテンツ変更処理)が含まれる。以下の説明では、コンテンツの管理を、コンテンツ管理サーバ3のコンピュータを用いて行う例を説明するが、外部のコンピュータや携帯端末を用いて行うこともできる。図9は、コンテンツ登録処理フローを示す。ステップS01では、サーバの制御部31は、管理者やユーザからの指示に基づきブラウザを起動する。サーバの操作部32を介して管理画面のアドレス及びパスワードが入力されると、対応する操作信号がサーバの制御部31へ入力される。サーバの制御部31は、この操作信号を受け、サーバの表示部33にコンテンツの管理画面を表示させる。図11Aは、コンテンツの管理画面を示す。コンテンツ管理画面には、「コンテンツ情報」タブと、「ルート情報」タブが表示されている。図11Aでは、「コンテンツ情報」が選択されており、コンテンツ情報では、「コンテンツ登録」、「コンテンツ検索」が表示されている。ブラウザが起動されると、ステップS02へ進む。
First, content management will be described. Content management includes new registration of content information (hereinafter referred to as content registration processing) and change of already registered content (hereinafter referred to as content change processing). In the following description, an example in which content management is performed using the computer of the
ステップS02では、サーバの制御部31は、コンテンツの登録を行う。具体的には、サーバの制御部31は、サーバの表示部33に登録画面を表示させ、コンテンツの登録を受け付ける。図11Bは、コンテンツの登録画面を示す。図11Bでは、一例としてCSV形式のファイルが選択されている。登録画面には、「登録」、「キャンセル」が表示されており、「登録」が選択されると選択されたファイルが登録される。すなわち、新規のコンテンツがサーバの操作部32を介して入力されると、サーバの制御部31は、入力されたコンテンツをサーバの記憶部35のデータベースに登録する。以上により、コンテンツ登録処理が終了する。
In step S02, the
次に、コンテンツ変更処理について説明する。図10は、コンテンツ変更処理フローを示す。ステップS11は、ステップS01と同様であり、サーバの制御部31は、管理者やユーザからの指示に基づきブラウザを起動し、サーバの表示部33にコンテンツの管理画面を表示させる。ブラウザが起動されると、ステップS12へ進む。
Next, content change processing will be described. FIG. 10 shows a content change processing flow. Step S11 is the same as step S01, and the
ステップS12では、サーバの制御部31は、コンテンツの検索を行う。具体的には、サーバの制御部31は、サーバの表示部33に検索画面を表示させ、コンテンツの検索条件を受け付ける。図11Cは、コンテンツ検索画面を示す。コンテンツの検索画面では、コンテンツ番号や、コンテンツ名称の入力が可能であり、これらを入力後、「検索」が選択されると入力されたコンテンツ番号やコンテンツ名称に基づいて検索が実行される。すなわち、コンテンツ番号やコンテンツ名称などがサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、コンテンツを検索する。コンテンツが検索されると、ステップS13へ進む。
In step S12, the
ステップS13では、サーバの制御部31は、コンテンツの変更を行う。具体的には、サーバの制御部31は、まず、サーバの表示部33に検索結果画面を表示させる。図11Dは、コンテンツの検索結果画面を示す。コンテンツの検索結果画面には、検索されたコンテンツがリスト表示される。また、各コンテンツの横には、「削除」が表示されており、「削除」が選択されるとコンテンツが削除される。次に、サーバの制御部31は、コンテンツの検索結果一覧からコンテンツが選択されると、サーバの表示部33に選択されたコンテンツの変更画面を表示させる。図11Eは、コンテンツの変更画面(基本情報)を示す。コンテンツの変更画面(基本情報)では、コンテンツ番号とコンテンツ名称が表示され、これらの変更が可能である。コンテンツ番号又はコンテンツ名称がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、データベースを更新する。また、サーバの制御部31は、コンテンツ変更画面(基本情報)において「付加情報」が選択されると、サーバの表示部33に、コンテンツの変更画面(付加情報)を表示させる。図11Fは、コンテンツの変更画面(付加情報)を示す。コンテンツの変更画面(付加情報)では、コンテンツの詳細情報である付加情報(図11Fでは、入場料、駐車場有無)が表示され、これらの変更が可能である。付加情報がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、データベースを更新する。以上により、コンテンツ変更処理が終了する。
In step S13, the
次に、ルートの管理について説明する。ルートの管理には、ルート情報の新規登録(以下、ルート登録処理という)と既に登録されているルートの変更(以下、ルート変更処理)が含まれる。以下の説明では、ルートの管理も、コンテンツ管理サーバのコンピュータを用いて行う例を説明するが、外部のコンピュータや携帯端末を用いて行うこともできる。図12は、ルート登録処理フローを示す。ステップS21では、コンテンツ管理サーバ3(以下、単にサーバともいう)の制御部31は、管理者やユーザからの指示に基づきブラウザを起動し、サーバの表示部33にコンテンツの管理画面を表示させる。図14Aは、ルート管理画面を示す。ルート管理画面には、「コンテンツ情報」タブと、「ルート情報」タブが表示されている。図14Aでは、「ルート情報」が選択されており、ルート情報では、「ルート登録」、「ルート検索」が表示されている。ブラウザが起動されると、ステップS22へ進む。
Next, route management will be described. Route management includes new registration of route information (hereinafter referred to as route registration processing) and change of an already registered route (hereinafter referred to as route change processing). In the following description, an example in which route management is performed using the computer of the content management server will be described, but it can also be performed using an external computer or a portable terminal. FIG. 12 shows a route registration process flow. In step S21, the
ステップS22では、サーバの制御部31は、ルートの登録を行う。具体的には、まず、サーバの制御部31は、サーバの表示部33に登録画面(基本情報)を表示させ、コンテンツの登録を受け付ける。図14Bは、ルート登録画面(基本情報)を示す。ルートの登録画面(基本情報)では、ルート番号とルート名称が表示され、これらの登録が可能である。ルート番号又はルート名称がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートの登録を行う。また、サーバの制御部31は、ルート登録画面(基本情報)において「コンテンツリスト」が選択されると、サーバの表示部33に、ルート登録画面(コンテンツリスト)を表示させる。図14Cは、ルート登録画面(コンテンツリスト)を示す。ルート登録画面(コンテンツリスト)では、ルートを構成するコンテンツの登録が可能であり、登録されたコンテンツが順次リストとして表示される。ルートを構成するコンテンツがサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートを構成するコンテンツをデータベースへ登録する。なお、ルート登録画面(コンテンツリスト)では、「地図」が表示される。「地図」を選択することでルート確認画面へ遷移する。図14Dは、ルート確認画面を示す。ルート確認画面では、ルートとルートを構成するコンテンツが表示される。ルート確認画面には、「閉じる」が表示され、「閉じる」が選択されると、ルート登録画面(コンテンツリスト)へ遷移する。以上により、ルート登録処理が終了する。
In step S22, the
次に、ルート変更処理について説明する。図13は、ルート変更処理フローを示す。ステップS31は、ステップS21と同様であり、サーバの制御部31は、管理者やユーザからの指示に基づきブラウザを起動し、サーバの表示部33にルート管理画面を表示させる(図14A参照)。ブラウザが起動されると、ステップS32へ進む。
Next, route change processing will be described. FIG. 13 shows a route change processing flow. Step S31 is the same as step S21, and the
ステップS32では、サーバの制御部31は、コンテンツの検索を行う。具体的には、サーバの制御部31は、サーバの表示部33に検索画面を表示させ、コンテンツの検索条件を受け付ける。図14Eは、ルート検索画面を示す。ルート検索画面では、ルート番号や、ルート名称の入力が可能であり、これらを入力後、「検索」が選択されると、入力されたルート番号やルート名称に基づいて検索が実行される。すなわち、ルート番号やルート名称などがサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートを検索する。ルートが検索されると、ステップS33へ進む。
In step S32, the
ステップS33では、サーバの制御部31は、ルートの変更を行う。具体的には、サーバの制御部31は、まず、サーバの表示部33にルート検索結果一覧画面を表示させる。図14Fは、ルート検索結果一覧画面を示す。ルート検索結果一覧画面には、検索されたルートがリスト表示される。また、各ルートの横には、「削除」が表示されており、「削除」が選択されるとコンテンツが削除される。次に、サーバの制御部31は、ルート検索結果一覧からルートが選択されると、サーバの表示部33に選択されたルートの変更画面を表示させる。図14Gは、ルート変更画面(基本情報)を示す。ルート変更画面(基本情報)では、ルート番号とルート名称が表示され、これらの変更が可能である。ルート番号又はルート名称がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、データベースを更新する。また、サーバの制御部31は、ルート変更画面(基本情報)において「コンテンツリスト」が選択されると、サーバの表示部33に、ルート変更画面(コンテンツリスト)を表示させる(図14C参照)。ルート登録画面(コンテンツリスト)では、ルートを構成するコンテンツの変更が可能であり、変更されたコンテンツが順次リストとして表示される。ルートを構成するコンテンツがサーバの操作部32を介して変更されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートを構成するコンテンツを変更する。なお、ルート登録画面(コンテンツリスト)では、「地図」が表示される。「地図」を選択することでルート確認画面へ遷移する(図14D参照)。以上により、ルート変更処理が終了する。
In step S33, the
次に、ルート・コンテンツの検索について説明する。図15は、ルート・コンテンツの検索処理フローを示す。ステップS41では、サーバの制御部31は、検索条件を取得する。具体的には、サーバの制御部31は、携帯端末2から送信される、携帯端末の識別情報、現在地、検索条件(地域(県、市)、性別、年代、散策時間、旅の目的、レーダ範囲等)を取得する。検索条件が取得されると、ステップS42へ進む。
Next, search for route content will be described. FIG. 15 shows a route content search processing flow. In step S41, the
ステップS42では、サーバの制御部31は、ルート・コンテンツを検索する。具体的には、サーバの制御部31は、データベースにアクセスし、携帯端末の識別情報、現在地、方位、検索条件等に基づいて、データベースからルート・コンテンツを抽出する。コンテンツの抽出に際しては、サーバの制御部31は、現在地とレーダ範囲とを比較し、現在地を基準として設定されたレーダ範囲内にあるコンテンツを抽出する。ルート・コンテンツが検索されると、ステップS43へ進む。
In step S42, the
ステップS43では、サーバの制御部31は、検索結果を携帯端末2へ提供する。すなわち、サーバの制御部31は、データベースから抽出されたルート・コンテンツを携帯端末2へ送信する。以上により、ルート・コンテンツの検索が完了する。
In step S43, the
(カメラ案内画面の表示処理)
次に、カメラ案内画面の表示処理の詳細について説明する。第一実施形態では、以下に説明するカメラ案内画面の表示処理を実行することで、従来よりもコンテンツを適正な位置に見やすく表示することができる。(Camera guidance screen display processing)
Next, details of the display process of the camera guidance screen will be described. In the first embodiment, by executing the camera guidance screen display process described below, it is possible to display content at an appropriate position more easily than in the past.
図16Aは、カメラ案内画面の表示処理フローを示す。ステップS51では、携帯端末の制御部21は、映像及びコンテンツを取得する。映像はカメラ24によって撮影され携帯端末の記憶部28に記憶され、コンテンツはコンテンツ管理サーバ3から提供され携帯端末の記憶部28に記憶される。そして、携帯端末の制御部21は、携帯端末の記憶部28にアクセスし、映像及びコンテンツを取得する。より詳細には、携帯端末の制御部21は、位置情報取得部26を介して位置情報を取得し、方位センサ27の検出値からカメラの方向、角度を算出する。位置情報、カメラの方向、角度は、コンテンツの検索条件として、コンテンツ管理サーバ3へ送信される。コンテンツサーバ3は、携帯端末2の位置情報、カメラの方向(水平方向)、カメラの角度(垂直方向)に基づいて、表示部23に表示すべきコンテンツを携帯端末2へ送る。表示すべきコンテンツには、カメラ24の視野内のコンテンツの他、カメラ24の視野よりも広い範囲に存在するコンテンツも含めることができる。携帯端末の制御部21は通信部25を介してコンテンツサーバ3から送られたコンテンツを取得する。コンテンツサーバ3から送られたコンテンツがカメラ24の視野よりも広い範囲に存在するコンテンツである場合には、携帯端末の制御部21は、カメラ24の水平方向の視野角及び垂直方向の視野角からカメラ24の視野に入るコンテンツを抽出する。なお、カメラ24の視野角に入るコンテンツのうち、カメラ24を中心に所定の距離内にあるコンテンツのみ抽出してもよい。所定の距離は、1km、5kmといったように予め設定することができる。映像及びコンテンツが取得されると、ステップS52へ進む。
FIG. 16A shows a display processing flow of the camera guidance screen. In step S51, the
ステップS52では、携帯端末の制御部21は、コンテンツの仮位置決めを行う。携帯端末の制御部21は、携帯端末2の現在地を原点とした座標空間において、携帯端末2の高さを中心点として、中心点を含む矩形平面に取得したコンテンツを透視処理して、コンテンツの表示位置の仮決めを行う。携帯端末2の高さは、例えば地表から1.5mに既定することができる。すなわち、携帯端末の位置における標高に1.5mを加算した値を携帯端末2の高さとする。仮位置決めは、カメラ24の水平方向の視野、垂直方向の視野角、及び映像のサイズ等を考慮して行われる。画面上の水平位置は、緯度経度情報に基づいて決定され、画面上の垂直位置は、携帯端末2の現在地である原点からの距離に応じて決定される。
In step S52, the
まず、図16Bに示すように、「対象点A」の角度が決定される。図16Bは、「対象点」表示するに際して、角度を決定するイメージを示す。図16Bにおいて、左側の図は、カメラ24の方向と「対象点A」の位置関係を示す平面図であり、右側の図は、カメラ24で撮影された映像に「対象点A」を重ね合わせるイメージを示す。「対象点」とは、例えばコンテンツを表示するバルーンや吹き出しの基点であり、コンテンツを表示する対象物の位置に対応する。具体的には、カメラ24の光軸の方向が画面の水平方向の中心を通る垂直基準線として設定される。また、垂直基準線と平行な補助垂直基準線が所定の間隔(図16Bでは、2度刻み)で設定される。垂直基準線と補助垂直基準線は、本発明の方位基準線に相当する。「対象点A」は、北東側47°の補助垂直基準線上、かつ、水平基準線上にプロットされる。水平基準線は、垂直方向の中心に設定される水平な基準線であり、本発明の距離基準線に相当する。
First, as shown in FIG. 16B, the angle of “target point A” is determined. FIG. 16B shows an image for determining an angle when “target point” is displayed. In FIG. 16B, the left diagram is a plan view showing the positional relationship between the direction of the
次に、図16C、図16Dに示すように、「対象点A」の距離、換言すると水平基準線からの垂直方向の距離が決定される。「対象点A」の距離は、水平基準線からの距離yで表すことができ、このyは数1に基づいて算出される。図16Cは、「対象点」を表示するに際して、距離を決定するイメージを示す。図16Dは、カメラ24と点Aとの関係を示す断面図である。図16Cにおいて、左側の図は、カメラ24の方位と「対象点A」の位置関係を示す平面図であり、右側の図は、カメラ24で撮影された映像に「対象点A」を重ね合わせるイメージを示す。なお、カメラ24の角度(垂直方向)は、光軸が地面と平行なものとして以下の処理を行うものとする。
Next, as shown in FIGS. 16C and 16D, the distance of “target point A”, in other words, the distance in the vertical direction from the horizontal reference line is determined. The distance of the “target point A” can be represented by a distance y from the horizontal reference line, and this y is calculated based on
具体的には、対象点を通る垂直面での視野垂直限界長Vは、数2で表され、自分点と対象点との高度差Yは、数3で表される。
Specifically, the visual field vertical limit length V on the vertical plane passing through the target point is expressed by
一方で、スクリーン画面縦長(垂直長さ)をv、画面中心線(水平基準線)からの縦方向(垂直方向)の距離をyとすると、視野垂直限界長V、高度差Y、スクリーン画面縦長v、画面中心線からの垂直方向の距離yとの間には、数4に示す関係が成り立つ。
On the other hand, when the vertical length of the screen screen (vertical length) is v and the distance in the vertical direction (vertical direction) from the screen center line (horizontal reference line) is y, the vertical field length limit V, the altitude difference Y, the vertical length of the screen screen The relationship shown in
ここで、自分点から対象点までの水平距離は、数5で表される。その結果、数1の関係式が成り立ち、画面中心線からの垂直方向の距離が算出可能となる。
Here, the horizontal distance from the user's point to the target point is expressed by Equation 5. As a result, the
以上により、「対象点A」の角度と距離が決定される。「対象点」すなわち、表示すべきコンテンツの全てについて、上述した処理が実行され、全てのコンテンツの角度と距離が決定されると、コンテンツの仮位置決めが完了する。上記では、対象点の決定処理について、コンテンツの表示位置の仮位置決めとして説明した。但し、例えば、後述する補正を行わない場合、上述した対象点の決定処理は、コンテンツの表示位置の位置決め処理として用いることができる。コンテンツの仮位置決めが完了すると、ステップS53へ進む。 As described above, the angle and distance of the “target point A” are determined. When “target points”, that is, all the contents to be displayed are processed, and the angles and distances of all the contents are determined, the temporary positioning of the contents is completed. In the above description, the target point determination process has been described as provisional positioning of the display position of the content. However, for example, when correction described later is not performed, the above-described target point determination processing can be used as positioning processing for content display positions. When the temporary positioning of the content is completed, the process proceeds to step S53.
ステップS53では、携帯端末の制御部21は、補正を行うための画像解析を行う。具体的には、携帯端末の制御部21は、画像の各ピクセルの強度(Intensity)を解析して、稜線、道路境界線、水平線を算出する。図17Bは、画像の各ピクセルの強度(Intensity)を解析して、稜線、道路境界線、水平線を算出する様子を示す。「線1」は、建物、樹木、山の稜線を示す。「線2」は、道路境界線を示す。「線3」は、2本の道路境界線の焦点を通る水平線を示す。補正を行うための画像解析が完了すると、ステップS54へ進む。
In step S53, the
ステップS54では、携帯端末の制御部21は、コンテンツの表示位置を補正する。図17Cは、コンテンツの表示位置を補正する様子を示す。画面上の水平位置については、道路境界線(線2)の内側に存在するコンテンツのうち、道路に関連するコンテンツ以外のコンテンツを道路境界線の外側へ移動する。画面のサイズを考慮し、道路境界線の外側へ移動するとコンテンツが画面内に収まらない場合には、画面に収まる範囲内で道路境界線の外側へ移動される。このルールで補正されたコンテンツは、図17Cにおいて「♯1」で示す。また、画面上の垂直位置については、原点に最も近いコンテンツが水平線の近傍に配置され、それ以外のコンテンツは順次奥に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「♯2」で示す。また、画面上の垂直位置について、山や樹木に関連するコンテンツが稜線よりも上方に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「♯3」で示す。一方、道路に関連するコンテンツは、稜線よりも下方に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「#4」で示す。その他のコンテンツは、稜線と道路境界線の間に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「#5」で示す。コンテンツの表示位置の補正が完了すると、ステップS55へ進む。
In step S54, the
ステップS55では、携帯端末の制御部21は、カメラ案内画面を携帯端末の表示部23へ表示させる。図17Dは、カメラ案内画面の表示例を示す。ステップS54までの処理によってコンテンツの表示位置が決定されると、透明の画像レイヤへ描画される。なお、画面左下に表示されるレーダは、現在地、方位、レーダ範囲から別途作成され、別の透明の画像レイヤに描画される。そして、コンテンツを含む画像レイヤ及びレーダを含む画像レイヤが、カメラ24で撮影された映像に重ね合わされる。以上により、カメラ案内画面が生成される。上述した一連の処理が適宜繰り返し実行されることで、リアルタイムにカメラ案内画面が生成される。
In step S55, the
なお、コンテンツの仮位置決めは、例えば、映像を上部、中央部、下部に3分割し、各領域にコンテンツを割り当てるようにしてもよい。例えば、山に関するコンテンツは上部、川や道に関するコンテンツは下部、その他(建物等)に関するコンテンツは中央部に割り当てるようにしてもよい。 Note that the temporary positioning of the content may be performed by, for example, dividing the video into an upper part, a central part, and a lower part and assigning the content to each region. For example, content relating to mountains may be assigned to the upper part, content relating to rivers and roads may be assigned to the lower part, and contents relating to others (such as buildings) may be assigned to the central part.
(効果)
以上説明した第一実施形態に係る情報処理システム1によれば、AR技術を利用したナビゲーションサービスを提供することができる。コンテンツ管理サーバ3が管理するルートやコンテンツは、容易に登録や変更が可能であることから、最新かつ豊富な情報に基づく経路誘導が可能である。また、携帯端末2では、地図画面とカメラ案内画面を併用して経路誘導することができる。また、カメラ案内画面では、経路誘導する際に最も重要となる「道路」を確実に表示することができ、より見やすい表示で使用者を経路誘導することができる。(effect)
According to the
[第二実施形態]
第一実施形態を含め、従来技術では、コンテンツ表示の自由度は制限されており、バルーン、ピン、写真、アイコンなどを表示できるにすぎなかった。しかしながら、第一実施形態で説明した対象点の角度と位置を決定する処理によれば、水平位置だけでなく垂直位置も精度よく画面上に表示させることができる。従って、建物の形状に合わせたオブジェクト(対象物)など設計の自由度が高いオブジェクトを表示させることができる。[Second Embodiment]
In the prior art including the first embodiment, the degree of freedom of content display is limited, and only balloons, pins, photos, icons, etc. can be displayed. However, according to the process for determining the angle and position of the target point described in the first embodiment, not only the horizontal position but also the vertical position can be accurately displayed on the screen. Accordingly, it is possible to display an object having a high degree of design freedom, such as an object (target object) that matches the shape of the building.
ここで、図18Aから18Eは、対象物に対して4つの対象点を有するコンテンツを表示させる手順を示す。なお、以下の処理を実行するため、コンテンツサーバには、従来と異なり、1つの対象物の形状を特定するための対象点(対象物の角部に対応)の経度、緯度、高さを予め格納しておく必要がある。なお、本実施形態では、4つの対象点を例に説明するが、例えば8つの対象点を特定することで立体的な表示も可能となる。以下、看板を表示する場合を例に説明する。 Here, FIGS. 18A to 18E show a procedure for displaying content having four target points on an object. In order to execute the following processing, the content server previously stores the longitude, latitude, and height of the target point (corresponding to the corner of the target object) for specifying the shape of one target object in advance. Must be stored. In the present embodiment, four target points will be described as an example. For example, by specifying eight target points, a three-dimensional display is also possible. Hereinafter, a case where a signboard is displayed will be described as an example.
まず、図18Aに示すように、携帯端末の制御部21は、水平位置の対象点を特定(プロット)する。すなわち、看板の下辺の両端に相当する対象点を、第一実施形態の仮位置決めの処理で説明した対象点Aの角度と距離の算出処理に従って特定する。次に、図18Bに示すように、携帯端末の制御部21は、高さ位置の対象点を特定する。すなわち、看板の上辺の両端に相当する対象点を、第一実施形態の仮位置決めの処理で説明した対象点Aの角度と距離の算出処理に従って特定する。次に、図18Cに示すように、携帯端末の制御部21は、特定した4つの対象点を結び外郭を特定する。次に、図18Dに示すように、携帯端末の制御部21は、4つの対象点を結ぶことで決定された領域(外郭の内側)を面として特定する。更に、図18Eに示すように、携帯端末の制御部21は、特定された面に対してテキストを設定する。なお、テキストに代えて、写真、イラストなどを用いてもよい。また、ハイパーリンクの設定を行ってもよい。また、携帯端末の制御部21は、プロットを結ぶことで囲まれた面のテクスチャ、明度・輝度、色、グラデーションなどを設定してもよい。
First, as illustrated in FIG. 18A, the
(効果)
以上説明した第二実施形態に係る情報処理システム1によれば、カメラ案内画面に種々の形状のオブジェクトを表示させることができる。換言すると、拡張現実空間上に、使用者が自由にデザインした構築物等を、リアルに配置することができる。(effect)
According to the
以上本発明の実施形態について説明したが、本発明はこれらに限らず、可能な限りこれらの組合せを含むことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited to these, and can include combinations thereof as much as possible.
1・・・情報処理システム
2・・・携帯端末
3・・・コンテンツ管理サーバDESCRIPTION OF
Claims (5)
前記カメラによって撮影された現実空間に関する映像を表示する表示部と、
前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得部と、
前記取得部で取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御部と、を備え、
前記制御部は、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定し、更に、前記映像を解析して前記コンテンツ表示位置を補正し、
前記コンテンツ表示位置の補正では、前記制御部は、前記映像を解析して道路の境界としての境界基準線を前記画面に対して設定し、道路に関連するコンテンツ以外のコンテンツを道路外に移動する補正と、前記カメラの現在地としての原点に近いコンテンツを前記距離基準線の近傍に配置し、当該原点に近いコンテンツ以外のコンテンツを順次奥に配置する補正とのうち少なくとも何れか一方の補正を行う、情報処理装置。 A camera that captures the real space,
A display unit for displaying an image of the real space photographed by the camera;
Access to a storage device storing content to be displayed overlaid on the video, and based on position information including the position and orientation of the camera, the position of the target to display the content among the targets included in the video An acquisition unit for acquiring information and the content;
A control unit that causes the content acquired by the acquisition unit to be superimposed on the video and displayed on the display unit,
The control unit sets an azimuth reference line for azimuth and a distance reference line for distance on the screen, and calculates the position of the object relative to the camera based on the position information of the camera and the position information of the object. A horizontal position of the object on the screen based on the azimuth reference line, a vertical position of the object on the screen based on the distance reference line, and a display position of the object on the screen Further, analyzing the video and correcting the content display position,
In the correction of the content display position, the control unit analyzes the video, sets a boundary reference line as a road boundary for the screen, and moves content other than content related to the road to the outside of the road. At least one of correction and correction that places content close to the origin as the current location of the camera in the vicinity of the distance reference line and sequentially places content other than content close to the origin in the back is performed. , the information processing apparatus.
前記制御部は、前記対象点の夫々について前記画面における水平位置及び垂直位置を特定し、特定された対象点を結ぶことで面を設定し、設定された面にテキストを設定する、
請求項1又は2に記載の情報処理装置。 The position information of the target object includes position information of three or more target points that specify the shape of the target object,
The control unit specifies a horizontal position and a vertical position on the screen for each of the target points, sets a surface by connecting the specified target points, and sets text on the set surface,
The information processing apparatus according to claim 1 or 2.
前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得ステップと、
前記取得ステップで取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御ステップと、を備え、
前記制御ステップでは、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定し、更に、前記映像を解析して前記コンテンツ表示位置を補正し、
前記コンテンツ表示位置の補正について、前記制御ステップでは、前記映像を解析して道路の境界としての境界基準線を前記画面に対して設定し、道路に関連するコンテンツ以外のコンテンツを道路外に移動する補正と、前記カメラの現在地としての原点に近いコンテンツを前記距離基準線の近傍に配置し、当該原点に近いコンテンツ以外のコンテンツを順次奥に配置する補正とのうち少なくとも何れか一方の補正を行う、情報処理方法。 An information processing method executed by an information processing apparatus comprising: a camera that captures a real space; and a display unit that displays an image related to the real space captured by the camera,
Access to a storage device storing content to be displayed overlaid on the video, and based on position information including the position and orientation of the camera, the position of the target to display the content among the targets included in the video An acquisition step of acquiring information and the content;
A control step of superimposing the content acquired in the acquisition step on the video and displaying the content on the display unit,
In the control step, an azimuth reference line for azimuth and a distance reference line for distance are set on the screen, and the position of the object relative to the camera is calculated based on the position information of the camera and the position information of the object. A horizontal position of the object on the screen based on the azimuth reference line, a vertical position of the object on the screen based on the distance reference line, and a display position of the object on the screen Further, analyzing the video and correcting the content display position,
Regarding the correction of the content display position, in the control step, a boundary reference line as a road boundary is set for the screen by analyzing the video, and content other than the content related to the road is moved out of the road. At least one of correction and correction that places content close to the origin as the current location of the camera in the vicinity of the distance reference line and sequentially places content other than content close to the origin in the back is performed. , an information processing method.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/056784 WO2012127605A1 (en) | 2011-03-22 | 2011-03-22 | Information processing device and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012127605A1 JPWO2012127605A1 (en) | 2014-07-24 |
JP5728775B2 true JP5728775B2 (en) | 2015-06-03 |
Family
ID=46878801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013505679A Active JP5728775B2 (en) | 2011-03-22 | 2011-03-22 | Information processing apparatus and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5728775B2 (en) |
WO (1) | WO2012127605A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087134B2 (en) | 2017-05-30 | 2021-08-10 | Artglass Usa, Llc | Augmented reality smartglasses for use at cultural sites |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2793193B1 (en) * | 2011-12-15 | 2019-03-27 | Pioneer Corporation | Display device and display method |
GB2506338A (en) | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
CN105934775B (en) * | 2013-11-26 | 2020-06-05 | 约阿夫·谢斐 | Method and system for constructing virtual images anchored on real-world objects |
WO2016031358A1 (en) * | 2014-08-27 | 2016-03-03 | ソニー株式会社 | Display control device, display control method, and program |
JP6651777B2 (en) * | 2015-01-14 | 2020-02-19 | 株式会社リコー | Information processing apparatus, information processing method and program |
JP6481456B2 (en) | 2015-03-26 | 2019-03-13 | 富士通株式会社 | Display control method, display control program, and information processing apparatus |
JP6356909B2 (en) | 2015-04-23 | 2018-07-11 | 株式会社東芝 | Client system, client system management method, system controller |
JP6496671B2 (en) * | 2016-01-13 | 2019-04-03 | 株式会社ぐるなび | Information processing apparatus, terminal apparatus, information processing method, and program |
JP6719315B2 (en) * | 2016-07-20 | 2020-07-08 | 株式会社日立製作所 | Railway obstacle range visualization system |
US10429191B2 (en) * | 2016-09-22 | 2019-10-01 | Amadeus S.A.S. | Systems and methods for improved data integration in augmented reality architectures |
TWI617931B (en) * | 2016-09-23 | 2018-03-11 | 李雨暹 | Method and system for remote management of location-based space object |
JP6437688B2 (en) * | 2018-06-14 | 2018-12-12 | 株式会社東芝 | Unit corresponding to application specification |
JP6567746B2 (en) * | 2018-09-03 | 2019-08-28 | 株式会社東芝 | Client system |
JP6668428B2 (en) * | 2018-09-03 | 2020-03-18 | 株式会社東芝 | Unit control method |
CN112541467A (en) * | 2020-12-21 | 2021-03-23 | 杭州光粒科技有限公司 | Information display method, device and equipment and storage medium |
WO2023276141A1 (en) * | 2021-07-02 | 2023-01-05 | Mitsubishi Electric Corporation | Providing system and providing method |
EP4394719A1 (en) * | 2021-08-25 | 2024-07-03 | Sony Semiconductor Solutions Corporation | Information processing device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005289264A (en) * | 2004-04-01 | 2005-10-20 | Furuno Electric Co Ltd | Vessel navigation supporting system |
JP2010244575A (en) * | 2004-08-19 | 2010-10-28 | Sony Computer Entertainment Inc | Portable augmented reality device and method therefor |
-
2011
- 2011-03-22 JP JP2013505679A patent/JP5728775B2/en active Active
- 2011-03-22 WO PCT/JP2011/056784 patent/WO2012127605A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005289264A (en) * | 2004-04-01 | 2005-10-20 | Furuno Electric Co Ltd | Vessel navigation supporting system |
JP2010244575A (en) * | 2004-08-19 | 2010-10-28 | Sony Computer Entertainment Inc | Portable augmented reality device and method therefor |
Non-Patent Citations (2)
Title |
---|
CSNJ200810004093; 小田島太郎, 外2名: '"GPSを用いた屋外で利用可能なウェアラブル型拡張現実感システム"' FIT2002 情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラフィク , 20020913, p.187-188 * |
JPN6014049370; 小田島太郎, 外2名: '"GPSを用いた屋外で利用可能なウェアラブル型拡張現実感システム"' FIT2002 情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラフィク , 20020913, p.187-188 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087134B2 (en) | 2017-05-30 | 2021-08-10 | Artglass Usa, Llc | Augmented reality smartglasses for use at cultural sites |
US12001974B2 (en) | 2017-05-30 | 2024-06-04 | Artglass Usa Llc | Augmented reality smartglasses for use at cultural sites |
Also Published As
Publication number | Publication date |
---|---|
WO2012127605A1 (en) | 2012-09-27 |
JPWO2012127605A1 (en) | 2014-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5728775B2 (en) | Information processing apparatus and information processing method | |
US11692842B2 (en) | Augmented reality maps | |
JP5383930B2 (en) | Method for providing information on object contained in visual field of terminal device, terminal device and computer-readable recording medium | |
US10309797B2 (en) | User interface for displaying navigation information in a small display | |
US8467810B2 (en) | Method and system for reporting errors in a geographic database | |
US10445772B1 (en) | Label placement based on objects in photographic images | |
US9404753B2 (en) | Navigating on images | |
US8036678B2 (en) | Real-time geographic information system and method | |
US11060880B2 (en) | Route planning method and apparatus, computer storage medium, terminal | |
US20130162665A1 (en) | Image view in mapping | |
US20110137561A1 (en) | Method and apparatus for measuring geographic coordinates of a point of interest in an image | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
JP5652097B2 (en) | Image processing apparatus, program, and image processing method | |
US20130103303A1 (en) | Three Dimensional Routing | |
JP2010118019A (en) | Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium | |
JP5877394B2 (en) | Content providing system, server, and content providing method | |
US20220076469A1 (en) | Information display device and information display program | |
JP6384898B2 (en) | Route guidance system, method and program | |
RU2375756C2 (en) | Navigation device with information received from camera | |
US8869058B1 (en) | Interface elements for specifying pose information for photographs in an online map system | |
KR102157999B1 (en) | Apparatus and method for automatically recognizing local information through focusing around a user | |
JP6019680B2 (en) | Display device, display method, and display program | |
US20210090267A1 (en) | Information processing system, information processing method, and information processing apparatus | |
JP2006146562A (en) | Information processor, information processing system, information processing method, its program, and recording medium recorded with the program | |
JP2006146561A (en) | Information processing system, its method and program and recording medium recording the program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5728775 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |