JP5728775B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP5728775B2
JP5728775B2 JP2013505679A JP2013505679A JP5728775B2 JP 5728775 B2 JP5728775 B2 JP 5728775B2 JP 2013505679 A JP2013505679 A JP 2013505679A JP 2013505679 A JP2013505679 A JP 2013505679A JP 5728775 B2 JP5728775 B2 JP 5728775B2
Authority
JP
Japan
Prior art keywords
screen
content
camera
route
reference line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013505679A
Other languages
Japanese (ja)
Other versions
JPWO2012127605A1 (en
Inventor
一 丸田
一 丸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WHERE, INC.
Original Assignee
WHERE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WHERE, INC. filed Critical WHERE, INC.
Publication of JPWO2012127605A1 publication Critical patent/JPWO2012127605A1/en
Application granted granted Critical
Publication of JP5728775B2 publication Critical patent/JP5728775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Description

本発明は、情報処理装置、及び情報処理方法の技術に関する。   The present invention relates to an information processing apparatus and an information processing method.

近年、拡張現実感(AR:Augumented Reality)に関する技術が注目されている。例えば、特許文献1には、ポータブルデバイスに内蔵されたカメラにより、カメラの視野にある特定のオブジェクトを認識し、ポータブルデバイスが、この認識に基づいて、適切なコンピュータグラフィックを作成し、このグラフィックを、表示装置に表示されている実世界の画像の上に重ね合わせることが開示されている。   In recent years, a technology related to augmented reality (AR) has attracted attention. For example, in Patent Document 1, a camera built in a portable device recognizes a specific object in the field of view of the camera, and the portable device creates an appropriate computer graphic based on this recognition. In addition, it is disclosed to superimpose on a real-world image displayed on a display device.

特開2010−244575号公報JP 2010-244575 A

拡張現実感(AR:Augumented Reality)に関する従来技術として、場所に関連するコンテンツをカメラの映像に重ね合わせて表示するものがある。ここで、図1は、場所に関連するコンテンツをカメラの映像に重ね合わせて表示した一例を示す。   As a conventional technique related to augmented reality (AR), there is a technique in which content related to a place is displayed superimposed on a camera image. Here, FIG. 1 shows an example in which content related to a place is displayed superimposed on the video of the camera.

図1に示すように、コンテンツをカメラの映像に重ね合わせて表示する場合、GPS(Global Positioning System)の精度の影響により、コンテンツが適正な位置に表示されないといった問題がある。また、コンテンツの相互関係が現実空間と異なってしまうといった問題がある。   As shown in FIG. 1, when content is displayed superimposed on a camera image, there is a problem in that the content is not displayed at an appropriate position due to the influence of the accuracy of GPS (Global Positioning System). In addition, there is a problem that the interrelationship of contents differs from the real space.

本発明では、上記した背景に鑑み、コンテンツをカメラの映像に重ね合わせて表示する技術において、コンテンツを適正な位置に表示する技術を提供することを課題とする。   In the present invention, in view of the above-described background, it is an object of the present invention to provide a technique for displaying content at an appropriate position in a technique for displaying content superimposed on a camera image.

上述した課題を解決するため、本発明は、以下の手段を採用する。すなわち、本発明は、現実空間を撮影するカメラと、前記カメラによって撮影された現実空間に関する映像を表示する表示部と、前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得部と、前記取得部で取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御部と、を備え、前記制御部は、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定する。   In order to solve the above-described problems, the present invention employs the following means. That is, the present invention accesses a camera that captures a real space, a display unit that displays a video related to the real space captured by the camera, and a storage device that stores content to be displayed over the video, and Based on position information including the position and orientation of the camera, among the objects included in the video, the position information of the object that displays the content, the acquisition unit that acquires the content, and the content acquired by the acquisition unit A control unit that superimposes the image on the video and displays the image on the display unit, the control unit sets an azimuth reference line related to an azimuth and a distance reference line related to a distance on the screen, and the position information of the camera and the Based on the position information of the object, calculate the position of the object with respect to the camera, and based on the azimuth reference line, Identify a flat position, the distance based on the reference line identifies the vertical position of the object in the screen, specifies a display position of the object in the screen.

本発明によれば、画面に対して方位基準線と距離基準線を設定することで、カメラに対する対象物の位置を、画面上において水平方向と垂直方向の双方で特定することができる。すなわち、コンテンツを適正な位置に表示することができる。従来技術では、特に垂直方向の位置は考慮されておらず、同じ方向にコンテンツが重なる場合に、重なって表示されるのを防止する為、カメラから近い対象物のコンテンツを手前に表示させているにすぎなかった。これに対し、本発明では、垂直方向を含め、コンテンツを適正な位置に表示することができる。なお、本発明は、拡張現実感に関する技術(以下、AR技術ともいう)に幅広く適用できる。特に、本発明は、AR技術を利用したナビゲーション技術に好適に用いることができる。また、本発明は、カメラ、通信機能、コンピュータを備える装置として幅広く適用可能であるが、スーマートフォンや携帯電話機などの携帯端末として特に好適に用いることができる。   According to the present invention, by setting the azimuth reference line and the distance reference line on the screen, the position of the object relative to the camera can be specified in both the horizontal direction and the vertical direction on the screen. That is, the content can be displayed at an appropriate position. In the prior art, the position in the vertical direction is not particularly taken into consideration, and when content overlaps in the same direction, the content of the object close to the camera is displayed in the foreground to prevent it from being displayed overlapping. It was only. On the other hand, according to the present invention, the content can be displayed at an appropriate position including the vertical direction. The present invention can be widely applied to technologies relating to augmented reality (hereinafter also referred to as AR technology). In particular, the present invention can be suitably used for navigation technology using AR technology. In addition, the present invention can be widely applied as an apparatus including a camera, a communication function, and a computer, but can be particularly preferably used as a mobile terminal such as a smart phone or a mobile phone.

ここで、本発明に係る情報処理装置において、前記制御部は、前記画面に対して方位に関する方位基準線と距離に関する距離基準線を設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラの光軸に対する前記対象物の角度と、前記カメラから前記対象物までの距離を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定するようにしてもよい。カメラの光軸とは、カメラのレンズの中心を通り、かつレンズの平面と直交する軸を意味する。カメラから対象物までの距離とは、水平距離を意味する。上記のように角度と距離を算出することで、コンテンツを適正な位置に表示することができる。   Here, in the information processing apparatus according to the present invention, the control unit sets an azimuth reference line related to an azimuth and a distance reference line related to a distance to the screen, and sets the position information of the camera and the position information of the object Based on the angle of the object with respect to the optical axis of the camera and the distance from the camera to the object, to determine the horizontal position of the object on the screen based on the azimuth reference line, A vertical position of the object on the screen may be specified based on a distance reference line, and a display position of the object on the screen may be specified. The optical axis of the camera means an axis that passes through the center of the camera lens and is orthogonal to the plane of the lens. The distance from the camera to the object means a horizontal distance. By calculating the angle and distance as described above, the content can be displayed at an appropriate position.

また、本発明に係る情報処理装置において、前記対象物の位置情報には、対象物の形状を特定する3つ以上の対象点の位置情報が含まれ、前記制御部は、前記対象点の夫々について前記画面における水平位置及び垂直位置を特定し、特定された対象点を結ぶことで面を設定し、設定された面にテキストを設定することができる。従来の技術では、コンテンツ表示の自由度は制限されており、バルーン、ピン、写真、アイコンなどを表示できるにすぎなかった。しかしながら、本発明によれば、水平位置だけでなく垂直位置も精度よく画面上に表示させることができることから、コンテンツを建物の形状に合わせた態様など、従来にはない種々の態様で表示させることができる。   Further, in the information processing apparatus according to the present invention, the position information of the target object includes position information of three or more target points that specify the shape of the target object, and the control unit includes each of the target points. The horizontal position and the vertical position on the screen can be specified, the plane can be set by connecting the specified target points, and the text can be set on the set plane. In the prior art, the degree of freedom of content display is limited, and only balloons, pins, photos, icons, etc. can be displayed. However, according to the present invention, not only the horizontal position but also the vertical position can be displayed on the screen with high accuracy, so that the content can be displayed in various forms that are not conventional, such as a form that matches the shape of the building. Can do.

ここで、従来技術では、コンテンツが適正な位置に表示されないといった上述した課題に加えて、更にコンテンツが重なって見づらい、コンテンツが背景を占領して映像が見づらいといったことが懸念されていた。このような課題を解決するため、本発明に係る情報処理装置において、前記制御部は、前記映像を解析して前記現実空間を構成する景色の境界を含む境界基準線を前記画面に対して設定し、前記境界基準線を基準に前記コンテンツ表示位置を補正するようにしてもよい。境界基準線を算出し、基準線を基準にコンテンツの表示位置を補正することで、コンテンツを適正な位置に見やすく表示することができる。例えば、道路の境界としての境界基準線を設け、道路内には道路に関連するコンテンツのみが表示されるようにコンテンツを配置することで、より見やすくすることができる。   Here, in the prior art, in addition to the above-described problem that the content is not displayed at an appropriate position, there is a concern that the content is further overlapped and difficult to see, and the content occupies the background and the video is difficult to see. In order to solve such a problem, in the information processing apparatus according to the present invention, the control unit analyzes the video and sets a boundary reference line including a scene boundary constituting the real space for the screen. Then, the content display position may be corrected based on the boundary reference line. By calculating the boundary reference line and correcting the display position of the content based on the reference line, it is possible to display the content at an appropriate position in an easy-to-see manner. For example, by providing a boundary reference line as a road boundary and arranging the content so that only the content related to the road is displayed in the road, it is possible to make it easier to see.

また、本発明に係る情報処理装置において、前記制御部は、前記映像を解析して前記現実空間を構成する景色のうち、他の景色に優先して表示すべき景色の境界線を優先境界基準線として前記画面に対して設定し、前記優先境界基準線を基準に前記コンテンツ表示位置を補正するようにしてもよい。これにより、現実空間の映像として優先されるべき景色を確実に表示すると共に、映像に関連するコンテンツを適正位置に見やすく表示することができる。他の景色に優先して表示すべき景色は、目的に応じて予め設定することができる。例えば、本発明をAR技術を利用したナビゲーション技術として用いる場合には、「道路」を他の景色に優先して表示すべき景色に設定することができる。これにより、ナビゲーションをする際に最も重要となる「道路」を優先的に確実に表示することができる。他の景色には、建物や樹木等が例示される。   Further, in the information processing apparatus according to the present invention, the control unit analyzes a boundary of a scenery to be displayed with priority over other scenery among the scenery constituting the real space by analyzing the video. A line may be set for the screen, and the content display position may be corrected based on the priority boundary reference line. As a result, it is possible to reliably display the scenery that should be prioritized as the image in the real space, and to display the content related to the image at an appropriate position in an easy-to-see manner. The scenery to be displayed with priority over other scenery can be preset according to the purpose. For example, when the present invention is used as a navigation technique using the AR technique, “road” can be set as a scenery to be displayed with priority over other scenery. As a result, the “road” that is most important for navigation can be displayed with priority and reliability. Examples of other scenery include buildings and trees.

また、例えば、本発明に係る情報処理装置は、ナビゲーション装置として機能し、前記制御部は、前記境界基準線として、前記映像を解析して道路の境界線を算出し、前記道路の境界線内にあるコンテンツのうち、道路に関連するコンテンツ以外のコンテンツを該道路の境界線に対応する境界基準線の外へ配置するようにすることができる。これにより、道路を優先して表示することができ、本発明に係る情報処理装置を携帯端末型のナビゲーション装置として効果的に機能させることができる。   Further, for example, the information processing apparatus according to the present invention functions as a navigation device, and the control unit calculates the boundary line of the road by analyzing the video as the boundary reference line, and within the boundary line of the road The content other than the content related to the road can be arranged outside the boundary reference line corresponding to the boundary line of the road. Thereby, a road can be displayed preferentially, and the information processing apparatus according to the present invention can effectively function as a mobile terminal type navigation apparatus.

また、前記制御部は、前記道路の境界線の焦点を通る水平線を算出し、前記道路に関連するコンテンツ以外のコンテンツを前記水平線を基線として順次配置してもよい。水平線から順次配置することで、より見易い表示とすることができる。   In addition, the control unit may calculate a horizontal line that passes through the focal point of the boundary line of the road, and sequentially arrange content other than the content related to the road with the horizontal line as a base line. By arranging sequentially from the horizontal line, it is possible to make the display easier to see.

更に、前記制御部は、前記映像を解析して樹木や山を含む自然対象物の輪郭を含む稜線を算出し、前記自然対象物に関連するコンテンツを前記稜線よりも上方に配置してもよい。これにより、建物などの人工の構造物に関連するコンテンツの表示位置と自然対象物に関連するコンテンツの表示位置を区分けすることができ、より見易い表示とすることができる。なお、稜線には、一部に建物の輪郭としての稜線が含まれていてもよい。   Further, the control unit may analyze the video to calculate a ridge line including a contour of a natural object including a tree and a mountain, and dispose content related to the natural object above the ridge line. . Thereby, the display position of the content related to the artificial structure such as a building can be distinguished from the display position of the content related to the natural object, and the display can be made easier to see. The ridgeline may include a ridgeline as a building outline in part.

ここで、本発明は、上述した情報処理装置で実行される情報処理方法として特定することもできる。例えば、本発明は、現実空間を撮影するカメラと、前記カメラによって撮影された現実空間に関する映像を表示する表示部と、を備える情報処理装置で実行される情報処理方法であって、前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得ステップと、前記取得ステップで取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御ステップと、を備え、前記制御ステップでは、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定する。   Here, the present invention can also be specified as an information processing method executed by the information processing apparatus described above. For example, the present invention is an information processing method executed by an information processing apparatus including a camera that captures a real space, and a display unit that displays a video related to the real space captured by the camera. Based on the position information including the position and orientation of the camera, the storage device storing the content to be displayed in a superimposed manner is accessed, and the position information of the object for displaying the content among the objects included in the video, and the An acquisition step of acquiring content, and a control step of displaying the content acquired in the acquisition step on the video image on the display unit, wherein the control step includes a azimuth reference line related to a direction and a distance related to a distance. A reference line is set on the screen, and based on the position information of the camera and the position information of the object, Calculating the position of the object, specifying the horizontal position of the object on the screen based on the azimuth reference line, specifying the vertical position of the object on the screen based on the distance reference line, The display position of the object on the screen is specified.

また、本発明は、上述した情報処理装置とこのような情報処理装置へコンテンツを提供するコンテンツ管理サーバとを含む情報処理システムとして特定することもできる。また、本発明は、情報処理システムで実行される情報処理方法として特定してもよい。また、本発明は、情報処理装置や情報処理システムで実行される処理を実現させるプログラムや、そのようなプログラムを記録したコンピュータが読み取り可能な記録媒体として特定してもよい。この場合、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。なお、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。   The present invention can also be specified as an information processing system including the information processing apparatus described above and a content management server that provides content to such an information processing apparatus. Further, the present invention may be specified as an information processing method executed in the information processing system. Further, the present invention may be specified as a program that realizes processing executed by the information processing apparatus or the information processing system or a computer-readable recording medium that records such a program. In this case, the function can be provided by causing a computer or the like to read and execute the program of the recording medium. Note that a computer-readable recording medium is a recording medium that accumulates information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like. Say.

本発明によれば、コンテンツをカメラの映像に重ね合わせて表示する技術において、コンテンツを適正な位置に表示することができる。   According to the present invention, it is possible to display content at an appropriate position in the technology for displaying the content superimposed on the video of the camera.

カメラの映像にコンテンツを重ね合わせて表示した従来技術の一例を示す。An example of the prior art in which content is superimposed on a camera video and displayed. 第一実施形態に係る情報処理システムの構成を示す。1 shows a configuration of an information processing system according to a first embodiment. 第一実施形態に係る携帯端末の機能ブロック図を示す。The functional block diagram of the portable terminal which concerns on 1st embodiment is shown. コンテンツ管理サーバの機能ブロック図を示す。The functional block diagram of a content management server is shown. コンテンツ管理サーバの記憶部に記憶されるコンテンツ管理のデータベースの一例を示す。An example of the content management database memorize | stored in the memory | storage part of a content management server is shown. コンテンツ管理サーバの記憶部に記憶されるルート管理のデータベースの一例を示す。An example of the database of the route management memorize | stored in the memory | storage part of a content management server is shown. 携帯端末の画面遷移図を示す。The screen transition diagram of a portable terminal is shown. ホーム画面を示す。Show the home screen. オープニング画面を示す。Opening screen is shown. アプリ選択画面を示す。The application selection screen is shown. 操作説明画面を示す。An operation explanation screen is shown. 地域(県)選択画面を示す。The region (prefecture) selection screen is shown. 地区(市)選択画面を示す。The district (city) selection screen is shown. 利用者入力画面を示す。The user input screen is shown. ルート一覧画面を示す。The route list screen is shown. 地図画面を示す。Shows the map screen. カメラ案内画面を示す。A camera guidance screen is shown. メニュー画面を示す。A menu screen is shown. 言語選択画面を示す。The language selection screen is shown. ルート詳細画面を示す。The route details screen is shown. バルーン表示変更画面を示す。The balloon display change screen is shown. 情報詳細画面を示す。An information details screen is shown. レーダ範囲変更画面を示す。The radar range change screen is shown. コンテンツ管理処理フローを示す。The content management processing flow is shown. コンテンツ変更処理フローを示す。The content change processing flow is shown. コンテンツ管理画面を示す。A content management screen is shown. コンテンツの登録画面を示す。The content registration screen is shown. コンテンツの検索画面を示す。The content search screen is shown. コンテンツの検索結果画面を示す。The content search result screen is shown. コンテンツの変更画面(基本情報)を示す。A content change screen (basic information) is shown. コンテンツの変更画面(付加情報)を示す。A content change screen (additional information) is shown. ルート登録処理フローを示す。The route registration processing flow is shown. ルート変更処理フローを示す。The route change processing flow is shown. ルート管理画面を示す。The route management screen is shown. ルート登録画面(基本情報)を示す。The route registration screen (basic information) is shown. ルート登録画面(コンテンツリスト)を示す。A route registration screen (content list) is shown. ルート確認画面を示す。The route confirmation screen is shown. ルート検索画面を示す。The route search screen is shown. ルート検索結果一覧画面を示す。The route search result list screen is shown. ルート変更画面(基本情報)を示す。The route change screen (basic information) is shown. ルート・コンテンツの検索処理フローを示す。The search processing flow for root content is shown. カメラ案内画面の表示処理フローを示す。The display processing flow of a camera guidance screen is shown. 「対象点」表示するに際して、角度を決定するイメージを示す。An image for determining an angle when “target point” is displayed is shown. 「対象点」を表示するに際して、距離を決定するイメージを示す。An image for determining the distance when displaying the “target point” is shown. カメラと「対象点A」との関係を説明する断面図を示す。Sectional drawing explaining the relationship between a camera and "target point A" is shown. 映像にコンテンツを仮位置決めした様子を示す。A state in which the content is temporarily positioned on the video is shown. 画像の各ピクセルの強度を解析して、稜線、道路境界線、水平線を算出する様子を示す。An analysis of the intensity of each pixel in the image and calculation of a ridgeline, a road boundary line, and a horizontal line are shown. コンテンツの表示位置を補正する様子を示す。The manner in which the display position of the content is corrected is shown. カメラ案内画面の表示例を示す。The display example of a camera guidance screen is shown. 水平位置の対象点を特定する様子を示す。A mode that the target point of a horizontal position is specified is shown. 高さ位置の対象点を特定する様子を示す。A mode that the target point of a height position is specified is shown. 4つの対象点を結び外郭を特定する様子を示す。A state where an outline is specified by connecting four target points is shown. 4つの対象点を結ぶことで特定された領域を面として特定する様子を示す。A state in which an area specified by connecting four target points is specified as a surface is shown. 特定された面に対してテキストを設定する様子示す。Shows how to set text for a specified face.

次に、本発明の実施形態について図面に基づいて説明する。本実施形態では、本発明に係る情報処理装置をナビゲーション機能を有する携帯端末として機能させる場合を例に説明する。なお、実施形態では、このような携帯端末を含む情報処理システムについて説明する。   Next, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case where the information processing apparatus according to the present invention functions as a portable terminal having a navigation function will be described as an example. In the embodiment, an information processing system including such a portable terminal will be described.

[第一実施形態]
<構成>
図2は、第一実施形態に係る情報処理システム1の構成を示す。第一実施形態に係る情報処理システム1は、携帯端末2、コンテンツ管理サーバ3を備える。携帯端末2とコンテンツ管理サーバ3は、互いにネットワークを介して接続されている。ネットワークには、電話回線網を利用したインターネットが例示されるが、ネットワークは、携帯端末2とコンテンツ管理サーバ3を電気的に接続し、通信可能とできるものであれば良くその態様は特に限定されない。なお、図2では、携帯端末2が1台のみ示されているが、携帯端末2は複数台とすることができる。
[First embodiment]
<Configuration>
FIG. 2 shows a configuration of the information processing system 1 according to the first embodiment. An information processing system 1 according to the first embodiment includes a mobile terminal 2 and a content management server 3. The portable terminal 2 and the content management server 3 are connected to each other via a network. The network is exemplified by the Internet using a telephone line network, but the network is not particularly limited as long as the mobile terminal 2 and the content management server 3 can be electrically connected to enable communication. . In FIG. 2, only one portable terminal 2 is shown, but a plurality of portable terminals 2 can be provided.

(携帯端末)
携帯端末2は、予め所定のアプリケーションがインストールされることで、ナビゲーション装置として機能する。携帯端末2には、スマートフォン(例えば、Android携帯(Android:登録商標)やiphone(登録商標))が例示される。図3は、第一実施形態に係る携帯端末2の機能ブロック図を示す。携帯端末2は、制御部21、操作部22、表示部23、カメラ24、通信部25、位置情報取得部26、方位センサ27、記憶部28を含む。
(Mobile device)
The portable terminal 2 functions as a navigation device by installing a predetermined application in advance. The mobile terminal 2 is exemplified by a smartphone (for example, Android mobile phone (Android: registered trademark) or iphone (registered trademark)). FIG. 3 shows a functional block diagram of the mobile terminal 2 according to the first embodiment. The mobile terminal 2 includes a control unit 21, an operation unit 22, a display unit 23, a camera 24, a communication unit 25, a position information acquisition unit 26, an orientation sensor 27, and a storage unit 28.

携帯端末の制御部21は、コンテンツ管理サーバ3からの情報、使用者(ユーザ)の操作指示に基づいて携帯端末2の各部を制御する。携帯端末の制御部21は、携帯端末のCPU211、携帯端末のメモリ212を含む。携帯端末のCPU211は、携帯端末2の各ハードウェアを制御し、また、携帯端末のメモリ212に記録された制御プログラムに従って、AR技術を用いたナビゲーション機能を有する携帯端末として機能させる。なお、携帯端末2が有する各機能に対応する機能部を設けるようにしてもよい。換言すると、各機能部は、携帯端末のCPU211上で実行されるコンピュータプログラムとして構成することができ、これらの各機能部は、専用のプロセッサとして構成してもよく、また、一つのプロセッサとして構成してもよい。携帯端末のメモリ212は、各種データや制御プログラムを記憶するメモリ(記憶媒体)で、書換え可能なフラッシュメモリ等により構成される。   The control unit 21 of the mobile terminal controls each unit of the mobile terminal 2 based on information from the content management server 3 and an operation instruction of a user (user). The control unit 21 of the mobile terminal includes a CPU 211 of the mobile terminal and a memory 212 of the mobile terminal. The CPU 211 of the portable terminal controls each hardware of the portable terminal 2 and functions as a portable terminal having a navigation function using the AR technology according to a control program recorded in the memory 212 of the portable terminal. In addition, you may make it provide the function part corresponding to each function which the portable terminal 2 has. In other words, each function unit can be configured as a computer program executed on the CPU 211 of the mobile terminal, and each of these function units may be configured as a dedicated processor or configured as one processor. May be. The memory 212 of the portable terminal is a memory (storage medium) that stores various data and control programs, and is configured by a rewritable flash memory or the like.

各機能部には、以下が例示される。すなわち、解析部は、映像を解析して現実空間を構成する景色の境界を含む基準線を算出する。配置部は、解析部によって算出された基準線を基準にコンテンツを配置する。ナビゲーション部は、ルート探索の他、目的地までの経路表示や、解析部や配置部の解析結果に基づいてカメラ24で撮影された映像にコンテンツを重ね合わせて表示する。   Each function unit is exemplified as follows. That is, the analysis unit analyzes the video and calculates a reference line including the boundary of the scenery that forms the real space. The arrangement unit arranges the content based on the reference line calculated by the analysis unit. In addition to route search, the navigation unit displays the route to the destination, and displays the content superimposed on the video captured by the camera 24 based on the analysis results of the analysis unit and the arrangement unit.

携帯端末の操作部22は、使用者からの指示を受け付ける。携帯端末の操作部22は、例えばタッチパネルや、押釦等により構成される。本実施形態の携帯端末の操作部22は、タッチパネルによって構成されている。各種操作に応じて信号は、携帯端末の制御部21に入力される。   The operation unit 22 of the portable terminal receives an instruction from the user. The operation unit 22 of the mobile terminal is configured by, for example, a touch panel, a push button, or the like. The operation unit 22 of the mobile terminal according to the present embodiment is configured by a touch panel. Signals are input to the control unit 21 of the mobile terminal according to various operations.

携帯端末の表示部23は、携帯端末の制御部21からの信号に基づき画像を表示する。携帯端末の表示部113は、例えば液晶ディスプレイ、有機ELディスプレイ等で構成される。本実施形態の携帯端末の表示部23は、タッチパネルによって構成されている。   The display unit 23 of the mobile terminal displays an image based on a signal from the control unit 21 of the mobile terminal. The display unit 113 of the portable terminal is configured by, for example, a liquid crystal display, an organic EL display, or the like. The display unit 23 of the mobile terminal according to the present embodiment is configured by a touch panel.

カメラ24は、現実空間を撮影する。カメラ24は、光学系および受像素子を有する、デジタル画像を取得するモジュールによって構成される。取得されたデジタル画像は、携帯端末の表示部23に表示される。携帯端末2がARのナビゲーション装置として機能する場合には、取得された画像が携帯端末の記憶部28に保存され、コンテンツが重ね合わされた上で、携帯端末の表示部23に表示される。   The camera 24 images a real space. The camera 24 includes a module that has an optical system and an image receiving element and acquires a digital image. The acquired digital image is displayed on the display unit 23 of the mobile terminal. When the mobile terminal 2 functions as an AR navigation device, the acquired image is stored in the storage unit 28 of the mobile terminal, and the content is superimposed and displayed on the display unit 23 of the mobile terminal.

携帯端末の通信部25は、ネットワークと接続して、コンテンツ管理サーバ3や他の携帯端末との通信等を行う。   The communication unit 25 of the mobile terminal is connected to the network and performs communication with the content management server 3 and other mobile terminals.

位置情報取得部26は、一又は複数のGPS(Global Positioning System)衛星からのGPS信号に基づき携帯端末の位置を検出する。検出された位置に関する位置情報は、携帯端末の制御部21へ入力される。その結果、携帯端末の制御部21は、携帯端末2の位置を把握することが可能となる。なお、位置情報取得部26は、例えば一又は複数の無線通信基地局からの信号に基づいて携帯端末2の位置を検出するようにしてもよい。位置情報の取得は、既存の技術を適宜用いることができる。   The position information acquisition unit 26 detects the position of the mobile terminal based on GPS signals from one or a plurality of GPS (Global Positioning System) satellites. The position information regarding the detected position is input to the control unit 21 of the mobile terminal. As a result, the control unit 21 of the mobile terminal can grasp the position of the mobile terminal 2. Note that the position information acquisition unit 26 may detect the position of the mobile terminal 2 based on signals from one or a plurality of radio communication base stations, for example. The acquisition of the position information can use existing techniques as appropriate.

方位センサ27は、携帯端末2の方向(水平方向)・角度(垂直方向)を検出する。検出された、方向・角度に対応する信号は、携帯端末の制御部21に入力される。その結果、携帯端末の制御部21は、携帯端末2の方向・角度を把握することが可能となる。   The direction sensor 27 detects the direction (horizontal direction) and angle (vertical direction) of the mobile terminal 2. The detected signal corresponding to the direction / angle is input to the control unit 21 of the portable terminal. As a result, the control unit 21 of the mobile terminal can grasp the direction / angle of the mobile terminal 2.

携帯端末の記憶部28は、各種情報を記憶する。例えば、携帯端末の記憶部28は、カメラ24によって撮影された映像を記憶する。携帯端末の記憶部28は、例えば、半導体メモリ等により構成することができる。   The storage unit 28 of the portable terminal stores various information. For example, the storage unit 28 of the mobile terminal stores video captured by the camera 24. The storage unit 28 of the mobile terminal can be configured by, for example, a semiconductor memory.

(コンテンツ管理サーバ)
コンテンツ管理サーバ(以下、単にサーバともいう)3は、携帯端末2に提供するコンテンツの管理を行う。図4は、コンテンツ管理サーバの機能ブロック図を示す。コンテンツ管理サーバ3は、制御部31、操作部32、表示部33、通信部34、記憶部35を備え、制御部31は、CPU311、メモリ312を有する。
(Content management server)
A content management server (hereinafter also simply referred to as a server) 3 manages content to be provided to the mobile terminal 2. FIG. 4 shows a functional block diagram of the content management server. The content management server 3 includes a control unit 31, an operation unit 32, a display unit 33, a communication unit 34, and a storage unit 35, and the control unit 31 includes a CPU 311 and a memory 312.

サーバの操作部32は、例えば、キーボード、ポインティングデバイス、タッチパネル、操作ボタン等を含む。サーバの表示部33は、例えば、液晶表示装置、プラズマディスプレイパネル、CRT(Cathode Ray Tube)、エレクトロルミネッセンスパネル等を含む。サーバの通信部34には、例えば、ネットワークへの接続を実現する通信モジュール(例えば、ネットワークカード)が例示される。   The operation unit 32 of the server includes, for example, a keyboard, a pointing device, a touch panel, operation buttons, and the like. The server display unit 33 includes, for example, a liquid crystal display device, a plasma display panel, a CRT (Cathode Ray Tube), an electroluminescence panel, and the like. Examples of the communication unit 34 of the server include a communication module (for example, a network card) that realizes connection to a network.

サーバの制御部31は、CPU(中央演算処理装置)311、メモリ312、を備える。サーバのCPU311は、コンテンツ管理サーバ3の各ハードウェアを制御し、また、コンテンツ管理サーバ3に格納された制御プログラムに従って、コンテンツ・ルート管理部等の機能部を機能させる。機能部は、コンテンツ管理サーバのCPU311上で実行されるコンピュータプログラムとして構成することができる。また、これらの機能部は、専用のプロセッサとして構成してもよい。   The server control unit 31 includes a CPU (Central Processing Unit) 311 and a memory 312. The CPU 311 of the server controls each hardware of the content management server 3 and causes a functional unit such as a content / route management unit to function according to a control program stored in the content management server 3. The functional unit can be configured as a computer program executed on the CPU 311 of the content management server. These functional units may be configured as a dedicated processor.

コンテンツ・ルート管理部は、コンテンツ及びルートを管理する。具体的には、ユーザから投稿されるコンテンツやルートの受け付け、受け付けたコンテンツやルートのデータベースへの記録、コンテンツやルートが記憶されるデータベースの更新、携帯端末2からの要求に応じたコンテンツの提供等を行う。   The content / route management unit manages content and routes. Specifically, the content and route posted by the user, the recording of the received content and route in the database, the update of the database storing the content and route, the provision of the content in response to the request from the mobile terminal 2 Etc.

サーバの記憶部35は、コンテンツ・ルート管理部の制御の下、コンテンツやルートを記憶する。コンテンツ管理サーバ3は、ハードディスクドライブ(以下、HDDとする。)や半導体メモリ等により構成することができる。   The storage unit 35 of the server stores contents and routes under the control of the content / route management unit. The content management server 3 can be configured by a hard disk drive (hereinafter referred to as HDD), a semiconductor memory, or the like.

ここで、図5Aは、サーバの記憶部35に記憶されるコンテンツ管理のデータベースの一例を示す。データベースには、「識別番号」、「コンテンツ」、「緯度、経度、高さ」の項目が設けられ、各項目に対応する情報が格納されている。「識別番号」は、コンテンツ番号ともいい、コンテンツ毎に割り当てられた固有の識別情報である。「コンテンツ」は、場所に関する各種情報を含む。例えば、「コンテンツ」には、建物、道路、樹木、山などの名称、歴史に関する情報などが含まれる。なお、「コンテンツ」は、テキストデータに限定されるものではなく、画像データやイラストデータであってもよい。また、図5Bは、コンテンツ管理サーバの記憶部35に記憶されるルート管理のデータベースの一例を示す。データベースには、「識別番号」、「ルート」、「コンテンツリスト」の項目が設けられ、各項目に対応する情報が格納されている。「識別番号」は、ルート番号ともいい、ルート毎に割り当てられた固有の識別情報である。「ルート」は、経路に関する各種情報を含む。例えば、「ルート」には、食べ歩きルート、歴史堪能ルート、財布にやさしいルートが含まれる。「コンテンツリスト」には、各ルートを構成するコンテンツが含まれる。   Here, FIG. 5A shows an example of a content management database stored in the storage unit 35 of the server. In the database, items of “identification number”, “content”, “latitude, longitude, height” are provided, and information corresponding to each item is stored. The “identification number” is also referred to as a content number and is unique identification information assigned to each content. The “content” includes various types of information regarding the place. For example, “content” includes names of buildings, roads, trees, mountains, etc., information about history, and the like. The “content” is not limited to text data, and may be image data or illustration data. FIG. 5B shows an example of a route management database stored in the storage unit 35 of the content management server. In the database, items of “identification number”, “root”, and “content list” are provided, and information corresponding to each item is stored. The “identification number” is also referred to as a route number, and is unique identification information assigned to each route. The “route” includes various information regarding the route. For example, the “route” includes an eating route, a history enjoying route, and a wallet-friendly route. The “content list” includes contents constituting each route.

<動作>
次に実施形態に係る情報処理システム1の動作について図面に基づいて説明する。なお、以下の説明では、携帯端末をAR技術を利用したナビゲーション装置として機能させる場合について説明する。
<Operation>
Next, the operation of the information processing system 1 according to the embodiment will be described based on the drawings. In the following description, a case where the mobile terminal functions as a navigation device using the AR technology will be described.

(携帯端末の画面遷移)
携帯端末2では、AR技術を利用したナビゲーション処理が行われる。図6は、携帯端末の画面遷移図を示す。また、図7Aから図7J及び図8Aから図8Fは、各画面を示す。携帯端末2は、AR技術を利用したナビゲーション装置として機能させる場合の関連画面として、図6に示すような画面を有する。具体的には、携帯端末2は、ホーム画面(G01)、オープニング画面(G02)、アプリ選択画面(G03)、操作説明画面(G04)、地域(県)選択画面(G05)、地区(市)選択画面(G06)、利用者入力画面(G07)、ルート一覧画面(G08)、地図画面(G09)、カメラ案内画面(G10)、メニュー画面(A)、言語選択画面(B)、ルート詳細画面(C)、バルーン表示変更画面(D)、情報詳細画面(E)、レーダ範囲変更画面(F)を有する。各画面の表示や画面の遷移は、携帯端末の制御部21が、使用者の操作に対応する信号、すなわち携帯端末の操作部22からの操作信号に基づいて行う。以下、各画面について説明する。
(Mobile terminal screen transition)
In the mobile terminal 2, navigation processing using AR technology is performed. FIG. 6 shows a screen transition diagram of the mobile terminal. 7A to 7J and FIGS. 8A to 8F show the respective screens. The portable terminal 2 has a screen as shown in FIG. 6 as a related screen when functioning as a navigation device using the AR technology. Specifically, the mobile terminal 2 includes a home screen (G01), an opening screen (G02), an application selection screen (G03), an operation explanation screen (G04), a region (prefecture) selection screen (G05), and a district (city). Selection screen (G06), user input screen (G07), route list screen (G08), map screen (G09), camera guidance screen (G10), menu screen (A), language selection screen (B), route details screen (C), a balloon display change screen (D), an information detail screen (E), and a radar range change screen (F). Each screen display and screen transition is performed by the control unit 21 of the mobile terminal based on a signal corresponding to a user operation, that is, an operation signal from the operation unit 22 of the mobile terminal. Hereinafter, each screen will be described.

(ホーム画面)
ホーム画面(G01)は、携帯端末2が起動されることで表示される。すなわち、携帯端末の制御部21は、携帯端末2が起動され電力が供給されると、これを検知し、ホーム画面を携帯端末の表示部23に表示させる。ホーム画面では、携帯端末2にインストールされているアプリケーションのアイコンが表示される(図7A参照)。ホーム画面において、複数のアプリケーションを管理する管理アプリのアイコンが選択されると選択された管理アプリのオープニング画面へ遷移する。
(Home Screen)
The home screen (G01) is displayed when the mobile terminal 2 is activated. That is, when the mobile terminal 2 is activated and power is supplied, the control unit 21 of the mobile terminal detects this and displays the home screen on the display unit 23 of the mobile terminal. On the home screen, an icon of an application installed in the mobile terminal 2 is displayed (see FIG. 7A). When an icon of a management application that manages a plurality of applications is selected on the home screen, the screen transitions to the opening screen of the selected management application.

(オープニング画面)
オープニング画面は、管理アプリのオープニング画面である。オープニング画面(G02)では、「ようこそ!」が表示される(図7B参照)。具体的には、ホーム画面において管理アプリのアイコンが選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23にオープニング画面を表示させる。なお、図7Bにおける、「戻る」ボタン及び「Menu」ボタンは、携帯端末2に設けられたハードウェアキーである。「戻る」ボタンを選択することで、前画面への遷移が可能である。また、「Menu」ボタンを選択することで、メニュー画面(A)への遷移が可能である。オープニング画面は数秒間表示され、その後アプリ選択画面に自動遷移する。
(Opening screen)
The opening screen is the opening screen of the management application. On the opening screen (G02), “Welcome!” Is displayed (see FIG. 7B). Specifically, when a management application icon is selected on the home screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the portable terminal receives the operation signal and displays an opening screen on the display unit 23 of the portable terminal. In FIG. 7B, a “return” button and a “Menu” button are hardware keys provided on the mobile terminal 2. By selecting the “Return” button, it is possible to transition to the previous screen. In addition, transition to the menu screen (A) is possible by selecting the “Menu” button. The opening screen is displayed for a few seconds, and then automatically transitions to the app selection screen.

(アプリ選択画面)
アプリ選択画面(G03)は、アプリケーションの選択画面である。アプリ選択画面では、「ナビアプリ」、「他アプリ」が表示される(図7C参照)。具体的には、オープニング画面に遷移後、携帯端末の制御部21は、予め設定された遷移時間をカウントし、携帯端末の表示部23にアプリ選択画面を表示させる。「ナビアプリ」は、AR技術を利用したナビゲーションを行うアプリケーションを起動させる選択領域であり、「他アプリ」は、それ以外のアプリケーションの選択画面へ遷移するための選択領域である。「ナビアプリ」が選択されると、操作説明画面へ遷移する。
(App selection screen)
The application selection screen (G03) is an application selection screen. On the application selection screen, “navigation application” and “other application” are displayed (see FIG. 7C). Specifically, after the transition to the opening screen, the control unit 21 of the mobile terminal counts a preset transition time and displays the application selection screen on the display unit 23 of the mobile terminal. The “navigation application” is a selection area for starting an application that performs navigation using the AR technology, and the “other application” is a selection area for transitioning to a selection screen for other applications. When “navigation application” is selected, the operation description screen is displayed.

(操作説明画面)
操作説明画面(G04)は、「ナビアプリ」の操作説明画面である。操作説明画面では、「1.地域(県)選択」、「2.市選択」、「3.利用者情報入力」、「4.ルート一覧」が表示される(図7D参照)。具体的には、アプリ選択画面において「ナビアプリ」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に操作説明画面を表示させる。「1.地域(県)選択」、「2.市選択」、「3.利用者情報入力」、「4.ルート一覧」は、夫々の説明画面へ遷移するための選択領域である。例えば、「1.地域(県)選択」が選択されると、地域(県)選択の説明が表示される。また、操作説明画面には、「開始(県選択)へ」、「メニュー」、「言語」が表示されている。「開始(県選択)へ」は、地域(県)選択画面へ遷移するための選択領域である。「メニュー」は、メニュー画面へ遷移するための選択領域である。「言語」は、言語選択画面へ遷移するための選択領域である。「開始(県選択)へ」が選択されると、地域(県)選択画面へ遷移する。
(Operation explanation screen)
The operation explanation screen (G04) is an operation explanation screen of “navigation application”. On the operation explanation screen, “1. Region (prefecture) selection”, “2. City selection”, “3. User information input”, and “4. Route list” are displayed (see FIG. 7D). Specifically, when “navigation application” is selected on the application selection screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the mobile terminal receives this operation signal and displays an operation explanation screen on the display unit 23 of the mobile terminal. “1. Region (prefecture) selection”, “2. City selection”, “3. User information input”, and “4. Route list” are selection areas for transition to respective explanation screens. For example, when “1. Region (prefecture) selection” is selected, an explanation of region (prefecture) selection is displayed. In the operation explanation screen, “Start (to prefecture selection)”, “Menu”, and “Language” are displayed. “To start (prefecture selection)” is a selection area for transitioning to a region (prefecture) selection screen. “Menu” is a selection area for transitioning to a menu screen. “Language” is a selection area for transition to a language selection screen. When "Start (prefecture selection)" is selected, a transition is made to the region (prefecture) selection screen.

(地域(県)選択画面)
地域(県)選択画面(G05)は、都道府県レベルで地域の選択を受け付ける画面である。図7Eでは、一例として、地域(県)選択画面において、「秋田県」、「青森県」、「岩手県」が表示されている。操作説明画面において「開始(県選択)へ」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に地域(県)選択画面を表示させる。「秋田県」、「青森県」、「岩手県」は、夫々の市町村レベルでの地域選択を受け付ける画面へ遷移するための選択領域である。例えば、「秋田県」が選択されると、地区(市)選択画面へ遷移する。
(Region (prefecture) selection screen)
The region (prefecture) selection screen (G05) is a screen for accepting selection of a region at the prefectural level. In FIG. 7E, as an example, “Akita Prefecture”, “Aomori Prefecture”, and “Iwate Prefecture” are displayed on the region (prefecture) selection screen. When “start (prefecture selection)” is selected on the operation explanation screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the portable terminal receives this operation signal and displays a region (prefecture) selection screen on the display unit 23 of the portable terminal. “Akita Prefecture”, “Aomori Prefecture”, and “Iwate Prefecture” are selection regions for transitioning to a screen for accepting a region selection at each municipality level. For example, when “Akita Prefecture” is selected, a transition is made to a district (city) selection screen.

(地区(市)選択画面)
地区(市)選択画面(G06)は、市町村レベルで地域の選択を受け付ける画面である。図7Fでは、一例として、地区(市)選択画面において、「秋田市」、「鹿角市」、「にかほ市」が表示されている。地域(県)選択画面において「秋田県」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に秋田県に対応する地区(市)選択画面を表示させる。「秋田市」、「鹿角市」、「にかほ市」は、利用者情報入力画面へ遷移するための選択領域である。例えば、「秋田市」が選択されると、利用者入力画面へ遷移する。
(District (city) selection screen)
The district (city) selection screen (G06) is a screen for accepting selection of a region at the municipal level. In FIG. 7F, as an example, “Akita City”, “Kazuno City”, and “Nikaho City” are displayed on the district (city) selection screen. When “Akita” is selected on the region (prefecture) selection screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the mobile terminal receives this operation signal and causes the display unit 23 of the mobile terminal to display a district (city) selection screen corresponding to Akita Prefecture. “Akita City”, “Kazuno City”, and “Nikaho City” are selection areas for transition to the user information input screen. For example, when “Akita City” is selected, the screen changes to a user input screen.

(利用者入力画面)
利用者入力画面(G07)は、利用者の情報入力を受け付ける画面である。利用者入力画面では、「性別」、「年代」、「散策時間」、「旅の項目」、「ルート一覧」の項目が表示される(図7G参照)。地区(市)選択画面において例えば「秋田市」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に利用者入力画面を表示させる。「性別」、「年代」、「散策時間」、「旅の項目」には、選択肢が設けられており、利用者は選択肢から利用者情報を入力することができる。「性別」では、「男」、「女」からの選択が可能である。「年代」では、「10代」、「20代」といった年代からの選択が可能である。「散策時間」では、「30分」、「1時間」といった所定の時間単位からの選択が可能である。「旅の目的」では、「観光」、「食事」などの旅の目的からの選択が可能である。各項目を選択後、「ルート一覧」が選択されると、ルート一覧画面へ遷移する。
(User input screen)
The user input screen (G07) is a screen for accepting user information input. On the user input screen, items of “sex”, “age”, “walking time”, “journey item”, and “route list” are displayed (see FIG. 7G). When, for example, “Akita City” is selected on the district (city) selection screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the mobile terminal receives this operation signal and displays a user input screen on the display unit 23 of the mobile terminal. Options are provided for “sex”, “age”, “walking time”, and “travel item”, and the user can input user information from the options. In “gender”, selection from “male” and “female” is possible. In "age", selection from the ages such as "10's" and "20's" is possible. In “walking time”, selection from predetermined time units such as “30 minutes” and “1 hour” is possible. In the “travel purpose”, it is possible to select a travel purpose such as “sightseeing” and “meal”. After selecting each item, when “Route List” is selected, the screen transits to the route list screen.

(ルート一覧画面)
ルート一覧画面(G08)は、ルートの検索結果を表示する画面である。ルート一覧画面では、検索結果として、「食べ歩きルート」、「歴史堪能ルート」、「お財布にやさしいルート」、「温泉めぐりルート」等が表示される(図7H参照)。利用者入力画面において例えば「ルート一覧」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の通信部25を介して、検索条件をコンテンツ管理サーバ3へ送信し、検索結果を受信する。そして、携帯端末の制御部21は、携帯端末の表示部23に検索結果を含むルート一覧画面を表示させる。「食べ歩きルート」、「歴史堪能ルート」、「お財布にやさしいルート」、「温泉めぐりルート」は、ルート詳細画面へ遷移するための選択領域である。例えば、「歴史堪能ルート」が選択されると、ルート詳細画面へ遷移する。
(Route list screen)
The route list screen (G08) is a screen for displaying a route search result. On the route list screen, “eating and walking route”, “historic route”, “wallet friendly route”, “hot spring tour route”, etc. are displayed as search results (see FIG. 7H). For example, when “route list” is selected on the user input screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the portable terminal receives this operation signal, transmits the search condition to the content management server 3 via the communication unit 25 of the portable terminal, and receives the search result. And the control part 21 of a portable terminal displays the route | root list screen containing a search result on the display part 23 of a portable terminal. “Eat-walking route”, “History enjoying route”, “Wallet-friendly route”, and “Onsen tour route” are selection areas for transition to the route detail screen. For example, when “historic enjoyment route” is selected, a transition is made to the route detail screen.

(ルート詳細画面)
ルート詳細画面(C)は、ルートの詳細を表示する画面である。ルート詳細画面では、ルート上の駅名や所要時間などが表示される(図8C参照)。ルート一覧画面において例えば「歴史堪能ルート」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23にルート詳細画面を表示させる。ルート詳細画面に含まれる情報は、ルート一覧画面を表示する際にコンテンツ管理サーバ3から取得してもよく、また、ルート詳細画面を表示する際にコンテンツ管理サーバ3から取得してもよい。ルート詳細画面では、更に「ルート決定」、「戻る」も表示されている。「ルート決定」は、地図画面へ遷移するための選択領域である。「戻る」は、前画面、すなわちルート一覧画面へ遷移するための選択領域である。「ルート決定」が選択されると、地図画面へ遷移する。
(Route details screen)
The route detail screen (C) is a screen that displays the details of the route. On the route details screen, the name of the station on the route, the required time, etc. are displayed (see FIG. 8C). When, for example, “historic route” is selected on the route list screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. Upon receiving this operation signal, the control unit 21 of the mobile terminal displays a route detail screen on the display unit 23 of the mobile terminal. Information included in the route details screen may be acquired from the content management server 3 when displaying the route list screen, or may be acquired from the content management server 3 when displaying the route details screen. In the route detail screen, “route determination” and “return” are also displayed. “Route determination” is a selection area for transition to the map screen. “Return” is a selection area for transitioning to the previous screen, that is, the route list screen. When “Route determination” is selected, a transition is made to the map screen.

(地図画面)
地図画面(G09)は、選択されたルートの地図画面(俯瞰情報)を表示する。地図画面では、地図とともに、「案内開始ポイント」、「案内終了ポイント」、「バルーン」が表示される(図7I参照)。ルート詳細画面において「ルート決定」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の通信部25を介して、選択されたルート、現在地をコンテンツ管理サーバ3へ送信し、地図画面のデータを受信する。そして、携帯端末の制御部21は、携帯端末の表示部23に地図画面を表示させる。「案内開始ポイント」は、案内を開始する場所であり、「案内終了ポイント」は、案内を終了する場所である。「バルーン」は、お勧め場所に設けられており、「バルーン」が選択されると、場所ごとの説明が表示される。「バルーン」は、例えばジャンル毎に色分けされる。ジャンルには、施設、食べる、買う、道、川、山、休憩所、トイレ、駐車場が例示される。なお、「バルーン」に代えて、「ピン」、「写真」、「イラスト」、「アイコン」等を用いてもよい。また、地図画面には、更に、「メニュー」、「言語」、「カメラ」、「現在地」、「表示変更」が表示される。「カメラ」は、カメラ案内画面へ遷移するための選択領域である。「現在地」は、現在地を中心に移動する地図画面へ遷移するための選択領域である。「表示変更」は、バルーン表示変更画面へ遷移するための選択領域である。「カメラ」が選択されると、カメラ案内画面へ遷移する。
(Map screen)
The map screen (G09) displays a map screen (overhead information) of the selected route. On the map screen, “guidance start point”, “guidance end point”, and “balloon” are displayed together with the map (see FIG. 7I). When “Route determination” is selected on the route detail screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. Upon receiving this operation signal, the control unit 21 of the mobile terminal transmits the selected route and current location to the content management server 3 via the communication unit 25 of the mobile terminal, and receives map screen data. And the control part 21 of a portable terminal displays a map screen on the display part 23 of a portable terminal. The “guidance start point” is a place where the guidance starts, and the “guidance end point” is a place where the guidance ends. “Balloon” is provided in a recommended place, and when “balloon” is selected, an explanation for each place is displayed. The “balloon” is color-coded for each genre, for example. The genre includes facilities, eating, buying, roads, rivers, mountains, rest areas, toilets, and parking lots. Instead of “balloon”, “pin”, “photo”, “illustration”, “icon” or the like may be used. In addition, “Menu”, “Language”, “Camera”, “Current location”, and “Display change” are further displayed on the map screen. “Camera” is a selection area for transition to the camera guidance screen. “Current location” is a selection region for transition to a map screen that moves around the current location. “Display change” is a selection area for transition to a balloon display change screen. When “camera” is selected, a transition is made to the camera guidance screen.

(カメラ案内画面)
カメラ案内画面(G10)は、カメラ24で撮影された映像にコンテンツを重ね合わせた視界情報(現実空間統合画面)を表示する。カメラ案内画面では、カメラ24で撮影された映像に、「レーダ」、「バルーン」が表示される(図7J参照)。地図画面において「カメラ」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部23に入力される。携帯端末の制御部21は、カメラ24で撮影された映像を携帯端末の記憶部28に記憶させると共に、コンテンツ管理サーバ3から取得したコンテンツを上記映像に重ね合わせ、カメラ24で撮影された映像にコンテンツが重ね合わされたカメラ案内画面を携帯端末の表示部23に表示させる。画面右下の円は、レーダのイメージビュー(以下、レーダ表示とする)であり、このレーダ表示には、自分(携帯端末の使用者)を中心に周囲の観光地情報などが種類で色分けされて表示される。「レーダ表示」を選択するとレーダ範囲変更画面への遷移が可能である。画面中央下の矢印は、次の目的地までの方角を示し、矢印の横には距離が合わせて表示される。この矢印と共に表示される距離は、次の目的地までの距離を示す。地図画面と同じくカメラ案内画面にも「バルーン」が表示され、「バルーン」の下にはバルーンに対応する場所までの距離が表示される。また、カメラ案内画面には、地図画面と同様の「メニュー」、「言語」、「表示変更」が表示される。更に、カメラ案内画面には、「地図」が表示され、この「地図」は、地図画面へ遷移するための選択領域である。
(Camera guidance screen)
The camera guidance screen (G10) displays view information (real space integrated screen) in which content is superimposed on video captured by the camera 24. On the camera guidance screen, “radar” and “balloon” are displayed on the video imaged by the camera 24 (see FIG. 7J). When “camera” is selected on the map screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 23 of the mobile terminal. The control unit 21 of the mobile terminal stores the video captured by the camera 24 in the storage unit 28 of the mobile terminal, and superimposes the content acquired from the content management server 3 on the video so that the video captured by the camera 24 is displayed. The camera guidance screen on which the content is superimposed is displayed on the display unit 23 of the mobile terminal. The circle at the bottom right of the screen is a radar image view (hereinafter referred to as radar display), and this radar display is color-coded according to the type of tourist information around you (mobile terminal user). Displayed. When “radar display” is selected, transition to the radar range change screen is possible. The arrow at the bottom center of the screen indicates the direction to the next destination, and the distance is displayed next to the arrow. The distance displayed with this arrow indicates the distance to the next destination. As with the map screen, “balloon” is displayed on the camera guidance screen, and the distance to the location corresponding to the balloon is displayed below “balloon”. In addition, “menu”, “language”, and “display change” similar to those on the map screen are displayed on the camera guidance screen. Furthermore, a “map” is displayed on the camera guidance screen, and this “map” is a selection area for transition to the map screen.

(メニュー画面)
メニュー画面(A)は、ナビアプリのメニューを表示する画面である。メニュー画面には、「利用者情報入力画面へ」、「ルート一覧画面へ」、「ナビアプリ終了」が表示される(図8A参照)。アプリ選択画面、操作説明画面、地域(県)選択画面、地区(市)選択画面、利用者入力画面、ルート一覧画面、地図画面、及びカメラ案内画面において「メニュー」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23にメニュー画面を表示させる。「利用者情報入力画面へ」は、利用者情報入力画面へ遷移するための選択領域である。「ルート一覧画面へ」は、ルート一覧画面へ遷移するための選択領域である。「ナビアプリ終了」は、アプリ選択画面へ遷移するための選択領域である。
(Menu screen)
The menu screen (A) is a screen that displays a menu of the navigation application. On the menu screen, “go to user information input screen”, “go to route list screen”, and “end navigation application” are displayed (see FIG. 8A). When “Menu” is selected on the application selection screen, operation explanation screen, region (prefecture) selection screen, district (city) selection screen, user input screen, route list screen, map screen, and camera guidance screen, the mobile terminal The operation unit 22 detects this, and a corresponding operation signal is input to the control unit 21 of the portable terminal. The control unit 21 of the mobile terminal receives this operation signal and displays a menu screen on the display unit 23 of the mobile terminal. “To user information input screen” is a selection area for transition to the user information input screen. “To route list screen” is a selection area for transition to the route list screen. “End of navigation application” is a selection area for transition to the application selection screen.

(言語選択画面)
言語選択画面(B)は、ナビアプリで使用するテキストの選択を受け付ける画面である。言語選択画面には、「日本語」、「English」、「中国語」、「韓国語」が表示される(図8B参照)。アプリ選択画面、操作説明画面、地域(県)選択画面、地区(市)選択画面、利用者入力画面、ルート一覧画面、地図画面、及びカメラ案内画面において「メニュー」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に言語選択画面を表示させる。言語選択画面において「日本語」、「English」、「中国語」、「韓国語」の何れかが選択されると、ナビアプリの使用言語が変更される。なお、言語選択画面に表示される言語は、上記に限定されない。
(Language selection screen)
The language selection screen (B) is a screen that accepts selection of text used in the navigation application. On the language selection screen, “Japanese”, “English”, “Chinese”, and “Korean” are displayed (see FIG. 8B). When “Menu” is selected on the application selection screen, operation explanation screen, region (prefecture) selection screen, district (city) selection screen, user input screen, route list screen, map screen, and camera guidance screen, the mobile terminal The operation unit 22 detects this, and a corresponding operation signal is input to the control unit 21 of the portable terminal. Upon receiving this operation signal, the control unit 21 of the mobile terminal displays a language selection screen on the display unit 23 of the mobile terminal. When “Japanese”, “English”, “Chinese”, or “Korean” is selected on the language selection screen, the language used by the navigation application is changed. The language displayed on the language selection screen is not limited to the above.

(バルーン表示変更画面)
バルーン表示変更画面(D)は、地図画面及びカメラ案内画面で表示されるバルーン表示の設定を変更する画面である。バルーン表示変更画面には、バルーンのジャンルとして「施設」、「食べる」、「買う」、「道・川」、「山」、「休憩所・トイレ」、「駐車場」及び夫々に対応するチェックボックスが表示される(図8D参照)。地図画面、及びカメラ案内画面において「表示変更」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に言語選択画面を表示させる。バルーン表示変更画面において「施設」、「食べる」、「買う」、「道・川」、「山」、「休憩所・トイレ」、「駐車場」の何れかが選択され(チェックボックスがチェックされ)、「決定」が選択されると、遷移元の画面(地図画面又はカメラ案内画面)へ遷移する。
(Balloon display change screen)
The balloon display change screen (D) is a screen for changing settings of balloon display displayed on the map screen and the camera guide screen. In the balloon display change screen, check the corresponding genres of balloons as “facility”, “eat”, “buy”, “road / river”, “mountain”, “rest area / toilet”, “parking lot” and each. A box is displayed (see FIG. 8D). When “display change” is selected on the map screen and the camera guidance screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. Upon receiving this operation signal, the control unit 21 of the mobile terminal displays a language selection screen on the display unit 23 of the mobile terminal. On the balloon display change screen, “Facility”, “Eat”, “Buy”, “Road / River”, “Mountain”, “Restroom / Toilet”, or “Parking” is selected (the check box is checked) ), When “Determine” is selected, the screen transitions to the transition source screen (map screen or camera guidance screen).

(情報詳細画面)
情報詳細画面(E)は、地図画面及びカメラ案内画面で表示されるバルーンに対応する場所の詳細情報を表示する。情報詳細画面には、例えば、お店のお勧め品やイメージ画像が表示される(図8E参照)。地図画面、及びカメラ案内画面において「バルーン」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、携帯端末の表示部23に選択された「バルーン」に対応する詳細情報を表示させる。情報詳細画面において「戻る」が選択されると、遷移元の画面(地図画面又はカメラ案内画面)へ遷移する。
(Information details screen)
The information detail screen (E) displays detailed information on the location corresponding to the balloon displayed on the map screen and the camera guidance screen. On the information detail screen, for example, recommended products and images of shops are displayed (see FIG. 8E). When “balloon” is selected on the map screen and the camera guidance screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. Upon receiving this operation signal, the control unit 21 of the mobile terminal displays detailed information corresponding to the selected “balloon” on the display unit 23 of the mobile terminal. When “return” is selected on the information detail screen, the screen transitions to the transition source screen (map screen or camera guidance screen).

(レーダ範囲変更画面)
レーダ範囲変更画面(F)は、カメラ案内画面で表示されるレーダ表示の範囲を変更する画面である。レーダ範囲変更画面には、「50m」、「100m」、「200m」、「500m」、「1km」、「2km」、「3km」が表示される(図8F参照)。カメラ案内画面において「表示変更」が選択されると、携帯端末の操作部22がこれを検知し、対応する操作信号が携帯端末の制御部21に入力される。携帯端末の制御部21は、この操作信号を受け、レーダ範囲変更画面を表示させる。レーダ範囲変更画面において何れかの範囲が選択されると、カメラ案内画面へ遷移する。
(Radar range change screen)
The radar range change screen (F) is a screen for changing the radar display range displayed on the camera guidance screen. On the radar range change screen, “50 m”, “100 m”, “200 m”, “500 m”, “1 km”, “2 km”, and “3 km” are displayed (see FIG. 8F). When “display change” is selected on the camera guidance screen, the operation unit 22 of the mobile terminal detects this, and a corresponding operation signal is input to the control unit 21 of the mobile terminal. The control unit 21 of the portable terminal receives this operation signal and displays a radar range change screen. When any range is selected on the radar range change screen, the screen changes to the camera guidance screen.

(コンテンツ管理サーバの動作)
コンテンツ管理サーバ3では、コンテンツの管理、ルートの管理、コンテンツ・ルートの検索等が行われる。
(Content management server operation)
The content management server 3 performs content management, route management, content route search, and the like.

まず、コンテンツの管理について説明する。コンテンツの管理には、コンテンツ情報の新規登録(以下、コンテンツ登録処理という)と既に登録されているコンテンツの変更(以下、コンテンツ変更処理)が含まれる。以下の説明では、コンテンツの管理を、コンテンツ管理サーバ3のコンピュータを用いて行う例を説明するが、外部のコンピュータや携帯端末を用いて行うこともできる。図9は、コンテンツ登録処理フローを示す。ステップS01では、サーバの制御部31は、管理者やユーザからの指示に基づきブラウザを起動する。サーバの操作部32を介して管理画面のアドレス及びパスワードが入力されると、対応する操作信号がサーバの制御部31へ入力される。サーバの制御部31は、この操作信号を受け、サーバの表示部33にコンテンツの管理画面を表示させる。図11Aは、コンテンツの管理画面を示す。コンテンツ管理画面には、「コンテンツ情報」タブと、「ルート情報」タブが表示されている。図11Aでは、「コンテンツ情報」が選択されており、コンテンツ情報では、「コンテンツ登録」、「コンテンツ検索」が表示されている。ブラウザが起動されると、ステップS02へ進む。   First, content management will be described. Content management includes new registration of content information (hereinafter referred to as content registration processing) and change of already registered content (hereinafter referred to as content change processing). In the following description, an example in which content management is performed using the computer of the content management server 3 will be described, but it can also be performed using an external computer or a portable terminal. FIG. 9 shows a content registration processing flow. In step S01, the control unit 31 of the server activates the browser based on an instruction from the administrator or the user. When the address and password of the management screen are input via the operation unit 32 of the server, a corresponding operation signal is input to the control unit 31 of the server. Upon receiving this operation signal, the server control unit 31 causes the display unit 33 of the server to display a content management screen. FIG. 11A shows a content management screen. On the content management screen, a “content information” tab and a “route information” tab are displayed. In FIG. 11A, “content information” is selected, and “content registration” and “content search” are displayed in the content information. When the browser is activated, the process proceeds to step S02.

ステップS02では、サーバの制御部31は、コンテンツの登録を行う。具体的には、サーバの制御部31は、サーバの表示部33に登録画面を表示させ、コンテンツの登録を受け付ける。図11Bは、コンテンツの登録画面を示す。図11Bでは、一例としてCSV形式のファイルが選択されている。登録画面には、「登録」、「キャンセル」が表示されており、「登録」が選択されると選択されたファイルが登録される。すなわち、新規のコンテンツがサーバの操作部32を介して入力されると、サーバの制御部31は、入力されたコンテンツをサーバの記憶部35のデータベースに登録する。以上により、コンテンツ登録処理が終了する。   In step S02, the control unit 31 of the server registers content. Specifically, the control unit 31 of the server displays a registration screen on the display unit 33 of the server and accepts content registration. FIG. 11B shows a content registration screen. In FIG. 11B, a CSV file is selected as an example. “Registration” and “Cancel” are displayed on the registration screen, and when “Register” is selected, the selected file is registered. That is, when new content is input via the operation unit 32 of the server, the control unit 31 of the server registers the input content in the database of the storage unit 35 of the server. Thus, the content registration process ends.

次に、コンテンツ変更処理について説明する。図10は、コンテンツ変更処理フローを示す。ステップS11は、ステップS01と同様であり、サーバの制御部31は、管理者やユーザからの指示に基づきブラウザを起動し、サーバの表示部33にコンテンツの管理画面を表示させる。ブラウザが起動されると、ステップS12へ進む。   Next, content change processing will be described. FIG. 10 shows a content change processing flow. Step S11 is the same as step S01, and the server control unit 31 activates the browser based on an instruction from the administrator or user, and causes the display unit 33 of the server to display a content management screen. When the browser is activated, the process proceeds to step S12.

ステップS12では、サーバの制御部31は、コンテンツの検索を行う。具体的には、サーバの制御部31は、サーバの表示部33に検索画面を表示させ、コンテンツの検索条件を受け付ける。図11Cは、コンテンツ検索画面を示す。コンテンツの検索画面では、コンテンツ番号や、コンテンツ名称の入力が可能であり、これらを入力後、「検索」が選択されると入力されたコンテンツ番号やコンテンツ名称に基づいて検索が実行される。すなわち、コンテンツ番号やコンテンツ名称などがサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、コンテンツを検索する。コンテンツが検索されると、ステップS13へ進む。   In step S12, the control unit 31 of the server searches for content. Specifically, the control unit 31 of the server displays a search screen on the display unit 33 of the server and accepts content search conditions. FIG. 11C shows a content search screen. On the content search screen, it is possible to input a content number and a content name. After inputting these, when “Search” is selected, the search is executed based on the input content number and content name. That is, when a content number, content name, or the like is input via the operation unit 32 of the server, the control unit 31 of the server accesses the database of the storage unit 35 of the server and searches for the content. When the content is retrieved, the process proceeds to step S13.

ステップS13では、サーバの制御部31は、コンテンツの変更を行う。具体的には、サーバの制御部31は、まず、サーバの表示部33に検索結果画面を表示させる。図11Dは、コンテンツの検索結果画面を示す。コンテンツの検索結果画面には、検索されたコンテンツがリスト表示される。また、各コンテンツの横には、「削除」が表示されており、「削除」が選択されるとコンテンツが削除される。次に、サーバの制御部31は、コンテンツの検索結果一覧からコンテンツが選択されると、サーバの表示部33に選択されたコンテンツの変更画面を表示させる。図11Eは、コンテンツの変更画面(基本情報)を示す。コンテンツの変更画面(基本情報)では、コンテンツ番号とコンテンツ名称が表示され、これらの変更が可能である。コンテンツ番号又はコンテンツ名称がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、データベースを更新する。また、サーバの制御部31は、コンテンツ変更画面(基本情報)において「付加情報」が選択されると、サーバの表示部33に、コンテンツの変更画面(付加情報)を表示させる。図11Fは、コンテンツの変更画面(付加情報)を示す。コンテンツの変更画面(付加情報)では、コンテンツの詳細情報である付加情報(図11Fでは、入場料、駐車場有無)が表示され、これらの変更が可能である。付加情報がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、データベースを更新する。以上により、コンテンツ変更処理が終了する。   In step S13, the control unit 31 of the server changes the content. Specifically, the control unit 31 of the server first displays a search result screen on the display unit 33 of the server. FIG. 11D shows a content search result screen. A list of searched contents is displayed on the contents search result screen. Further, “delete” is displayed beside each content, and when “delete” is selected, the content is deleted. Next, when the content is selected from the content search result list, the server control unit 31 displays the selected content change screen on the server display unit 33. FIG. 11E shows a content change screen (basic information). On the content change screen (basic information), the content number and the content name are displayed and can be changed. When the content number or content name is input via the operation unit 32 of the server, the server control unit 31 accesses the database in the storage unit 35 of the server and updates the database. In addition, when “additional information” is selected on the content change screen (basic information), the server control unit 31 causes the display unit 33 of the server to display the content change screen (additional information). FIG. 11F shows a content change screen (additional information). On the content change screen (additional information), additional information that is detailed content information (in FIG. 11F, entrance fee, parking lot presence / absence) is displayed, and these can be changed. When the additional information is input via the operation unit 32 of the server, the server control unit 31 accesses the database in the storage unit 35 of the server and updates the database. Thus, the content change process ends.

次に、ルートの管理について説明する。ルートの管理には、ルート情報の新規登録(以下、ルート登録処理という)と既に登録されているルートの変更(以下、ルート変更処理)が含まれる。以下の説明では、ルートの管理も、コンテンツ管理サーバのコンピュータを用いて行う例を説明するが、外部のコンピュータや携帯端末を用いて行うこともできる。図12は、ルート登録処理フローを示す。ステップS21では、コンテンツ管理サーバ3(以下、単にサーバともいう)の制御部31は、管理者やユーザからの指示に基づきブラウザを起動し、サーバの表示部33にコンテンツの管理画面を表示させる。図14Aは、ルート管理画面を示す。ルート管理画面には、「コンテンツ情報」タブと、「ルート情報」タブが表示されている。図14Aでは、「ルート情報」が選択されており、ルート情報では、「ルート登録」、「ルート検索」が表示されている。ブラウザが起動されると、ステップS22へ進む。   Next, route management will be described. Route management includes new registration of route information (hereinafter referred to as route registration processing) and change of an already registered route (hereinafter referred to as route change processing). In the following description, an example in which route management is performed using the computer of the content management server will be described, but it can also be performed using an external computer or a portable terminal. FIG. 12 shows a route registration process flow. In step S21, the control unit 31 of the content management server 3 (hereinafter also simply referred to as a server) starts a browser based on an instruction from an administrator or a user, and causes the display unit 33 of the server to display a content management screen. FIG. 14A shows a route management screen. On the route management screen, a “content information” tab and a “route information” tab are displayed. In FIG. 14A, “route information” is selected, and “route registration” and “route search” are displayed in the route information. When the browser is activated, the process proceeds to step S22.

ステップS22では、サーバの制御部31は、ルートの登録を行う。具体的には、まず、サーバの制御部31は、サーバの表示部33に登録画面(基本情報)を表示させ、コンテンツの登録を受け付ける。図14Bは、ルート登録画面(基本情報)を示す。ルートの登録画面(基本情報)では、ルート番号とルート名称が表示され、これらの登録が可能である。ルート番号又はルート名称がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートの登録を行う。また、サーバの制御部31は、ルート登録画面(基本情報)において「コンテンツリスト」が選択されると、サーバの表示部33に、ルート登録画面(コンテンツリスト)を表示させる。図14Cは、ルート登録画面(コンテンツリスト)を示す。ルート登録画面(コンテンツリスト)では、ルートを構成するコンテンツの登録が可能であり、登録されたコンテンツが順次リストとして表示される。ルートを構成するコンテンツがサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートを構成するコンテンツをデータベースへ登録する。なお、ルート登録画面(コンテンツリスト)では、「地図」が表示される。「地図」を選択することでルート確認画面へ遷移する。図14Dは、ルート確認画面を示す。ルート確認画面では、ルートとルートを構成するコンテンツが表示される。ルート確認画面には、「閉じる」が表示され、「閉じる」が選択されると、ルート登録画面(コンテンツリスト)へ遷移する。以上により、ルート登録処理が終了する。   In step S22, the control unit 31 of the server registers a route. Specifically, first, the control unit 31 of the server displays a registration screen (basic information) on the display unit 33 of the server, and accepts content registration. FIG. 14B shows a route registration screen (basic information). On the route registration screen (basic information), a route number and a route name are displayed, and these can be registered. When the route number or route name is input via the server operation unit 32, the server control unit 31 accesses the database in the storage unit 35 of the server and registers the route. Further, when “content list” is selected on the route registration screen (basic information), the control unit 31 of the server causes the display unit 33 of the server to display the route registration screen (content list). FIG. 14C shows a route registration screen (content list). On the route registration screen (content list), content constituting the route can be registered, and the registered content is sequentially displayed as a list. When content constituting the route is input via the operation unit 32 of the server, the control unit 31 of the server accesses the database in the storage unit 35 of the server and registers the content constituting the route in the database. In the route registration screen (content list), “map” is displayed. Transit to the route confirmation screen by selecting “Map”. FIG. 14D shows a route confirmation screen. On the route confirmation screen, the route and the contents constituting the route are displayed. “Close” is displayed on the route confirmation screen, and when “Close” is selected, the screen transits to the route registration screen (content list). This completes the route registration process.

次に、ルート変更処理について説明する。図13は、ルート変更処理フローを示す。ステップS31は、ステップS21と同様であり、サーバの制御部31は、管理者やユーザからの指示に基づきブラウザを起動し、サーバの表示部33にルート管理画面を表示させる(図14A参照)。ブラウザが起動されると、ステップS32へ進む。   Next, route change processing will be described. FIG. 13 shows a route change processing flow. Step S31 is the same as step S21, and the server control unit 31 activates the browser based on an instruction from the administrator or the user, and displays a route management screen on the server display unit 33 (see FIG. 14A). When the browser is activated, the process proceeds to step S32.

ステップS32では、サーバの制御部31は、コンテンツの検索を行う。具体的には、サーバの制御部31は、サーバの表示部33に検索画面を表示させ、コンテンツの検索条件を受け付ける。図14Eは、ルート検索画面を示す。ルート検索画面では、ルート番号や、ルート名称の入力が可能であり、これらを入力後、「検索」が選択されると、入力されたルート番号やルート名称に基づいて検索が実行される。すなわち、ルート番号やルート名称などがサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートを検索する。ルートが検索されると、ステップS33へ進む。   In step S32, the control unit 31 of the server searches for content. Specifically, the control unit 31 of the server displays a search screen on the display unit 33 of the server and accepts content search conditions. FIG. 14E shows a route search screen. On the route search screen, it is possible to input a route number and a route name. When these items are input and “Search” is selected, the search is executed based on the input route number and route name. That is, when a route number, a route name, or the like is input via the server operation unit 32, the server control unit 31 accesses the database in the server storage unit 35 and searches for a route. When the route is searched, the process proceeds to step S33.

ステップS33では、サーバの制御部31は、ルートの変更を行う。具体的には、サーバの制御部31は、まず、サーバの表示部33にルート検索結果一覧画面を表示させる。図14Fは、ルート検索結果一覧画面を示す。ルート検索結果一覧画面には、検索されたルートがリスト表示される。また、各ルートの横には、「削除」が表示されており、「削除」が選択されるとコンテンツが削除される。次に、サーバの制御部31は、ルート検索結果一覧からルートが選択されると、サーバの表示部33に選択されたルートの変更画面を表示させる。図14Gは、ルート変更画面(基本情報)を示す。ルート変更画面(基本情報)では、ルート番号とルート名称が表示され、これらの変更が可能である。ルート番号又はルート名称がサーバの操作部32を介して入力されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、データベースを更新する。また、サーバの制御部31は、ルート変更画面(基本情報)において「コンテンツリスト」が選択されると、サーバの表示部33に、ルート変更画面(コンテンツリスト)を表示させる(図14C参照)。ルート登録画面(コンテンツリスト)では、ルートを構成するコンテンツの変更が可能であり、変更されたコンテンツが順次リストとして表示される。ルートを構成するコンテンツがサーバの操作部32を介して変更されると、サーバの制御部31は、サーバの記憶部35のデータベースにアクセスし、ルートを構成するコンテンツを変更する。なお、ルート登録画面(コンテンツリスト)では、「地図」が表示される。「地図」を選択することでルート確認画面へ遷移する(図14D参照)。以上により、ルート変更処理が終了する。   In step S33, the control unit 31 of the server changes the route. Specifically, the control unit 31 of the server first displays a route search result list screen on the display unit 33 of the server. FIG. 14F shows a route search result list screen. The route search result list screen displays a list of searched routes. Further, “delete” is displayed beside each route, and the content is deleted when “delete” is selected. Next, when a route is selected from the route search result list, the server control unit 31 causes the server display unit 33 to display a screen for changing the selected route. FIG. 14G shows a route change screen (basic information). On the route change screen (basic information), a route number and a route name are displayed, and these can be changed. When the route number or route name is input via the server operation unit 32, the server control unit 31 accesses the database in the storage unit 35 of the server and updates the database. Further, when “content list” is selected on the route change screen (basic information), the server control unit 31 displays the route change screen (content list) on the server display unit 33 (see FIG. 14C). On the route registration screen (content list), the content constituting the route can be changed, and the changed content is sequentially displayed as a list. When the content configuring the route is changed via the operation unit 32 of the server, the server control unit 31 accesses the database of the storage unit 35 of the server and changes the content configuring the route. In the route registration screen (content list), “map” is displayed. By selecting “Map”, the screen transits to the route confirmation screen (see FIG. 14D). Thus, the route change process ends.

次に、ルート・コンテンツの検索について説明する。図15は、ルート・コンテンツの検索処理フローを示す。ステップS41では、サーバの制御部31は、検索条件を取得する。具体的には、サーバの制御部31は、携帯端末2から送信される、携帯端末の識別情報、現在地、検索条件(地域(県、市)、性別、年代、散策時間、旅の目的、レーダ範囲等)を取得する。検索条件が取得されると、ステップS42へ進む。   Next, search for route content will be described. FIG. 15 shows a route content search processing flow. In step S41, the control unit 31 of the server acquires a search condition. Specifically, the control unit 31 of the server transmits the mobile terminal 2 identification information, current location, search conditions (region (prefecture, city), gender, age, walking time, travel purpose, radar, and the like. Range). When the search condition is acquired, the process proceeds to step S42.

ステップS42では、サーバの制御部31は、ルート・コンテンツを検索する。具体的には、サーバの制御部31は、データベースにアクセスし、携帯端末の識別情報、現在地、方位、検索条件等に基づいて、データベースからルート・コンテンツを抽出する。コンテンツの抽出に際しては、サーバの制御部31は、現在地とレーダ範囲とを比較し、現在地を基準として設定されたレーダ範囲内にあるコンテンツを抽出する。ルート・コンテンツが検索されると、ステップS43へ進む。   In step S42, the control unit 31 of the server searches for route content. Specifically, the control unit 31 of the server accesses the database and extracts route content from the database based on the identification information of the mobile terminal, the current location, the direction, the search condition, and the like. When extracting the content, the control unit 31 of the server compares the current location with the radar range, and extracts the content within the radar range set with the current location as a reference. When the root content is retrieved, the process proceeds to step S43.

ステップS43では、サーバの制御部31は、検索結果を携帯端末2へ提供する。すなわち、サーバの制御部31は、データベースから抽出されたルート・コンテンツを携帯端末2へ送信する。以上により、ルート・コンテンツの検索が完了する。   In step S43, the control unit 31 of the server provides the search result to the mobile terminal 2. That is, the control unit 31 of the server transmits the route content extracted from the database to the mobile terminal 2. Thus, the search for the root content is completed.

(カメラ案内画面の表示処理)
次に、カメラ案内画面の表示処理の詳細について説明する。第一実施形態では、以下に説明するカメラ案内画面の表示処理を実行することで、従来よりもコンテンツを適正な位置に見やすく表示することができる。
(Camera guidance screen display processing)
Next, details of the display process of the camera guidance screen will be described. In the first embodiment, by executing the camera guidance screen display process described below, it is possible to display content at an appropriate position more easily than in the past.

図16Aは、カメラ案内画面の表示処理フローを示す。ステップS51では、携帯端末の制御部21は、映像及びコンテンツを取得する。映像はカメラ24によって撮影され携帯端末の記憶部28に記憶され、コンテンツはコンテンツ管理サーバ3から提供され携帯端末の記憶部28に記憶される。そして、携帯端末の制御部21は、携帯端末の記憶部28にアクセスし、映像及びコンテンツを取得する。より詳細には、携帯端末の制御部21は、位置情報取得部26を介して位置情報を取得し、方位センサ27の検出値からカメラの方向、角度を算出する。位置情報、カメラの方向、角度は、コンテンツの検索条件として、コンテンツ管理サーバ3へ送信される。コンテンツサーバ3は、携帯端末2の位置情報、カメラの方向(水平方向)、カメラの角度(垂直方向)に基づいて、表示部23に表示すべきコンテンツを携帯端末2へ送る。表示すべきコンテンツには、カメラ24の視野内のコンテンツの他、カメラ24の視野よりも広い範囲に存在するコンテンツも含めることができる。携帯端末の制御部21は通信部25を介してコンテンツサーバ3から送られたコンテンツを取得する。コンテンツサーバ3から送られたコンテンツがカメラ24の視野よりも広い範囲に存在するコンテンツである場合には、携帯端末の制御部21は、カメラ24の水平方向の視野角及び垂直方向の視野角からカメラ24の視野に入るコンテンツを抽出する。なお、カメラ24の視野角に入るコンテンツのうち、カメラ24を中心に所定の距離内にあるコンテンツのみ抽出してもよい。所定の距離は、1km、5kmといったように予め設定することができる。映像及びコンテンツが取得されると、ステップS52へ進む。   FIG. 16A shows a display processing flow of the camera guidance screen. In step S51, the control unit 21 of the mobile terminal acquires video and content. The video is shot by the camera 24 and stored in the storage unit 28 of the portable terminal, and the content is provided from the content management server 3 and stored in the storage unit 28 of the portable terminal. And the control part 21 of a portable terminal accesses the memory | storage part 28 of a portable terminal, and acquires an image | video and a content. More specifically, the control unit 21 of the mobile terminal acquires position information via the position information acquisition unit 26 and calculates the direction and angle of the camera from the detection value of the direction sensor 27. The position information, the camera direction, and the angle are transmitted to the content management server 3 as content search conditions. The content server 3 sends the content to be displayed on the display unit 23 to the mobile terminal 2 based on the position information of the mobile terminal 2, the camera direction (horizontal direction), and the camera angle (vertical direction). The contents to be displayed can include contents in a wider range than the field of view of the camera 24 as well as contents within the field of view of the camera 24. The control unit 21 of the portable terminal acquires content transmitted from the content server 3 via the communication unit 25. When the content sent from the content server 3 is content that exists in a wider range than the field of view of the camera 24, the control unit 21 of the mobile terminal determines from the horizontal view angle and the vertical view angle of the camera 24. Content that falls within the field of view of the camera 24 is extracted. Note that only content within a predetermined distance from the camera 24 may be extracted from the content that falls within the viewing angle of the camera 24. The predetermined distance can be preset such as 1 km or 5 km. When the video and content are acquired, the process proceeds to step S52.

ステップS52では、携帯端末の制御部21は、コンテンツの仮位置決めを行う。携帯端末の制御部21は、携帯端末2の現在地を原点とした座標空間において、携帯端末2の高さを中心点として、中心点を含む矩形平面に取得したコンテンツを透視処理して、コンテンツの表示位置の仮決めを行う。携帯端末2の高さは、例えば地表から1.5mに既定することができる。すなわち、携帯端末の位置における標高に1.5mを加算した値を携帯端末2の高さとする。仮位置決めは、カメラ24の水平方向の視野、垂直方向の視野角、及び映像のサイズ等を考慮して行われる。画面上の水平位置は、緯度経度情報に基づいて決定され、画面上の垂直位置は、携帯端末2の現在地である原点からの距離に応じて決定される。   In step S52, the control unit 21 of the mobile terminal performs temporary positioning of the content. The control unit 21 of the mobile terminal performs a perspective process on the content acquired in a rectangular plane including the center point with the height of the mobile terminal 2 as the center point in the coordinate space with the current location of the mobile terminal 2 as the origin. Temporarily determine the display position. The height of the portable terminal 2 can be set to 1.5 m from the ground surface, for example. That is, a value obtained by adding 1.5 m to the altitude at the position of the mobile terminal is set as the height of the mobile terminal 2. The temporary positioning is performed in consideration of the horizontal field of view of the camera 24, the vertical viewing angle, the image size, and the like. The horizontal position on the screen is determined based on the latitude and longitude information, and the vertical position on the screen is determined according to the distance from the origin, which is the current location of the mobile terminal 2.

まず、図16Bに示すように、「対象点A」の角度が決定される。図16Bは、「対象点」表示するに際して、角度を決定するイメージを示す。図16Bにおいて、左側の図は、カメラ24の方向と「対象点A」の位置関係を示す平面図であり、右側の図は、カメラ24で撮影された映像に「対象点A」を重ね合わせるイメージを示す。「対象点」とは、例えばコンテンツを表示するバルーンや吹き出しの基点であり、コンテンツを表示する対象物の位置に対応する。具体的には、カメラ24の光軸の方向が画面の水平方向の中心を通る垂直基準線として設定される。また、垂直基準線と平行な補助垂直基準線が所定の間隔(図16Bでは、2度刻み)で設定される。垂直基準線と補助垂直基準線は、本発明の方位基準線に相当する。「対象点A」は、北東側47°の補助垂直基準線上、かつ、水平基準線上にプロットされる。水平基準線は、垂直方向の中心に設定される水平な基準線であり、本発明の距離基準線に相当する。   First, as shown in FIG. 16B, the angle of “target point A” is determined. FIG. 16B shows an image for determining an angle when “target point” is displayed. In FIG. 16B, the left diagram is a plan view showing the positional relationship between the direction of the camera 24 and “target point A”, and the right diagram overlays “target point A” on the video imaged by the camera 24. Show the image. The “target point” is, for example, a base point of a balloon or a balloon that displays content, and corresponds to the position of the target object that displays the content. Specifically, the direction of the optical axis of the camera 24 is set as a vertical reference line passing through the center in the horizontal direction of the screen. Further, auxiliary vertical reference lines parallel to the vertical reference lines are set at predetermined intervals (in steps of 2 degrees in FIG. 16B). The vertical reference line and the auxiliary vertical reference line correspond to the azimuth reference line of the present invention. “Target point A” is plotted on the auxiliary vertical reference line on the northeast side 47 ° and on the horizontal reference line. The horizontal reference line is a horizontal reference line set at the center in the vertical direction, and corresponds to the distance reference line of the present invention.

次に、図16C、図16Dに示すように、「対象点A」の距離、換言すると水平基準線からの垂直方向の距離が決定される。「対象点A」の距離は、水平基準線からの距離yで表すことができ、このyは数1に基づいて算出される。図16Cは、「対象点」を表示するに際して、距離を決定するイメージを示す。図16Dは、カメラ24と点Aとの関係を示す断面図である。図16Cにおいて、左側の図は、カメラ24の方位と「対象点A」の位置関係を示す平面図であり、右側の図は、カメラ24で撮影された映像に「対象点A」を重ね合わせるイメージを示す。なお、カメラ24の角度(垂直方向)は、光軸が地面と平行なものとして以下の処理を行うものとする。   Next, as shown in FIGS. 16C and 16D, the distance of “target point A”, in other words, the distance in the vertical direction from the horizontal reference line is determined. The distance of the “target point A” can be represented by a distance y from the horizontal reference line, and this y is calculated based on Equation 1. FIG. 16C shows an image for determining the distance when displaying the “target point”. FIG. 16D is a cross-sectional view showing the relationship between the camera 24 and the point A. In FIG. 16C, the left diagram is a plan view showing the positional relationship between the orientation of the camera 24 and “target point A”, and the right diagram overlays “target point A” on the video imaged by the camera 24. Show the image. The angle of the camera 24 (vertical direction) is assumed to be as follows, assuming that the optical axis is parallel to the ground.

Figure 0005728775
Figure 0005728775

具体的には、対象点を通る垂直面での視野垂直限界長Vは、数2で表され、自分点と対象点との高度差Yは、数3で表される。   Specifically, the visual field vertical limit length V on the vertical plane passing through the target point is expressed by Formula 2, and the altitude difference Y between the own point and the target point is expressed by Formula 3.

Figure 0005728775
Figure 0005728775

Figure 0005728775
Figure 0005728775

一方で、スクリーン画面縦長(垂直長さ)をv、画面中心線(水平基準線)からの縦方向(垂直方向)の距離をyとすると、視野垂直限界長V、高度差Y、スクリーン画面縦長v、画面中心線からの垂直方向の距離yとの間には、数4に示す関係が成り立つ。   On the other hand, when the vertical length of the screen screen (vertical length) is v and the distance in the vertical direction (vertical direction) from the screen center line (horizontal reference line) is y, the vertical field length limit V, the altitude difference Y, the vertical length of the screen screen The relationship shown in Equation 4 holds between v and the vertical distance y from the screen center line.

Figure 0005728775
Figure 0005728775

ここで、自分点から対象点までの水平距離は、数5で表される。その結果、数1の関係式が成り立ち、画面中心線からの垂直方向の距離が算出可能となる。   Here, the horizontal distance from the user's point to the target point is expressed by Equation 5. As a result, the relational expression 1 is established, and the distance in the vertical direction from the screen center line can be calculated.

Figure 0005728775
Figure 0005728775

以上により、「対象点A」の角度と距離が決定される。「対象点」すなわち、表示すべきコンテンツの全てについて、上述した処理が実行され、全てのコンテンツの角度と距離が決定されると、コンテンツの仮位置決めが完了する。上記では、対象点の決定処理について、コンテンツの表示位置の仮位置決めとして説明した。但し、例えば、後述する補正を行わない場合、上述した対象点の決定処理は、コンテンツの表示位置の位置決め処理として用いることができる。コンテンツの仮位置決めが完了すると、ステップS53へ進む。   As described above, the angle and distance of the “target point A” are determined. When “target points”, that is, all the contents to be displayed are processed, and the angles and distances of all the contents are determined, the temporary positioning of the contents is completed. In the above description, the target point determination process has been described as provisional positioning of the display position of the content. However, for example, when correction described later is not performed, the above-described target point determination processing can be used as positioning processing for content display positions. When the temporary positioning of the content is completed, the process proceeds to step S53.

ステップS53では、携帯端末の制御部21は、補正を行うための画像解析を行う。具体的には、携帯端末の制御部21は、画像の各ピクセルの強度(Intensity)を解析して、稜線、道路境界線、水平線を算出する。図17Bは、画像の各ピクセルの強度(Intensity)を解析して、稜線、道路境界線、水平線を算出する様子を示す。「線1」は、建物、樹木、山の稜線を示す。「線2」は、道路境界線を示す。「線3」は、2本の道路境界線の焦点を通る水平線を示す。補正を行うための画像解析が完了すると、ステップS54へ進む。   In step S53, the control unit 21 of the mobile terminal performs image analysis for correction. Specifically, the control unit 21 of the mobile terminal analyzes the intensity (Intensity) of each pixel of the image and calculates a ridgeline, a road boundary line, and a horizontal line. FIG. 17B shows a state in which the ridgeline, the road boundary line, and the horizontal line are calculated by analyzing the intensity (Intensity) of each pixel of the image. “Line 1” indicates a ridgeline of a building, a tree, or a mountain. “Line 2” indicates a road boundary line. “Line 3” indicates a horizontal line passing through the focal points of the two road boundary lines. When the image analysis for correcting is completed, the process proceeds to step S54.

ステップS54では、携帯端末の制御部21は、コンテンツの表示位置を補正する。図17Cは、コンテンツの表示位置を補正する様子を示す。画面上の水平位置については、道路境界線(線2)の内側に存在するコンテンツのうち、道路に関連するコンテンツ以外のコンテンツを道路境界線の外側へ移動する。画面のサイズを考慮し、道路境界線の外側へ移動するとコンテンツが画面内に収まらない場合には、画面に収まる範囲内で道路境界線の外側へ移動される。このルールで補正されたコンテンツは、図17Cにおいて「♯1」で示す。また、画面上の垂直位置については、原点に最も近いコンテンツが水平線の近傍に配置され、それ以外のコンテンツは順次奥に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「♯2」で示す。また、画面上の垂直位置について、山や樹木に関連するコンテンツが稜線よりも上方に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「♯3」で示す。一方、道路に関連するコンテンツは、稜線よりも下方に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「#4」で示す。その他のコンテンツは、稜線と道路境界線の間に配置される。このルールによって補正されたコンテンツは、図17Cにおいて「#5」で示す。コンテンツの表示位置の補正が完了すると、ステップS55へ進む。   In step S54, the control unit 21 of the mobile terminal corrects the display position of the content. FIG. 17C shows how the content display position is corrected. Regarding the horizontal position on the screen, content other than the content related to the road among the content existing inside the road boundary line (line 2) is moved to the outside of the road boundary line. In consideration of the size of the screen, if the content does not fit within the screen when moved outside the road boundary line, the content is moved outside the road boundary line within the range that fits on the screen. The content corrected by this rule is indicated by “# 1” in FIG. 17C. As for the vertical position on the screen, the content closest to the origin is arranged in the vicinity of the horizontal line, and the other contents are sequentially arranged in the back. The content corrected by this rule is indicated by “# 2” in FIG. 17C. In addition, regarding the vertical position on the screen, content related to mountains and trees is arranged above the ridgeline. The content corrected by this rule is indicated by “# 3” in FIG. 17C. On the other hand, the content related to the road is arranged below the ridgeline. The content corrected by this rule is indicated by “# 4” in FIG. 17C. Other contents are arranged between the ridgeline and the road boundary line. The content corrected by this rule is indicated by “# 5” in FIG. 17C. When the correction of the display position of the content is completed, the process proceeds to step S55.

ステップS55では、携帯端末の制御部21は、カメラ案内画面を携帯端末の表示部23へ表示させる。図17Dは、カメラ案内画面の表示例を示す。ステップS54までの処理によってコンテンツの表示位置が決定されると、透明の画像レイヤへ描画される。なお、画面左下に表示されるレーダは、現在地、方位、レーダ範囲から別途作成され、別の透明の画像レイヤに描画される。そして、コンテンツを含む画像レイヤ及びレーダを含む画像レイヤが、カメラ24で撮影された映像に重ね合わされる。以上により、カメラ案内画面が生成される。上述した一連の処理が適宜繰り返し実行されることで、リアルタイムにカメラ案内画面が生成される。   In step S55, the control unit 21 of the mobile terminal displays a camera guidance screen on the display unit 23 of the mobile terminal. FIG. 17D shows a display example of the camera guidance screen. When the display position of the content is determined by the processing up to step S54, it is drawn on a transparent image layer. The radar displayed at the lower left of the screen is separately created from the current location, direction, and radar range, and is drawn on another transparent image layer. Then, the image layer including the content and the image layer including the radar are superimposed on the video captured by the camera 24. Thus, a camera guidance screen is generated. By repeating the series of processes described above as appropriate, a camera guidance screen is generated in real time.

なお、コンテンツの仮位置決めは、例えば、映像を上部、中央部、下部に3分割し、各領域にコンテンツを割り当てるようにしてもよい。例えば、山に関するコンテンツは上部、川や道に関するコンテンツは下部、その他(建物等)に関するコンテンツは中央部に割り当てるようにしてもよい。   Note that the temporary positioning of the content may be performed by, for example, dividing the video into an upper part, a central part, and a lower part and assigning the content to each region. For example, content relating to mountains may be assigned to the upper part, content relating to rivers and roads may be assigned to the lower part, and contents relating to others (such as buildings) may be assigned to the central part.

(効果)
以上説明した第一実施形態に係る情報処理システム1によれば、AR技術を利用したナビゲーションサービスを提供することができる。コンテンツ管理サーバ3が管理するルートやコンテンツは、容易に登録や変更が可能であることから、最新かつ豊富な情報に基づく経路誘導が可能である。また、携帯端末2では、地図画面とカメラ案内画面を併用して経路誘導することができる。また、カメラ案内画面では、経路誘導する際に最も重要となる「道路」を確実に表示することができ、より見やすい表示で使用者を経路誘導することができる。
(effect)
According to the information processing system 1 according to the first embodiment described above, a navigation service using AR technology can be provided. Since the route and content managed by the content management server 3 can be easily registered or changed, route guidance based on the latest and abundant information is possible. Further, the mobile terminal 2 can guide the route by using both the map screen and the camera guidance screen. Further, on the camera guidance screen, the “road” that is most important when guiding the route can be displayed reliably, and the user can be guided with a more easily displayed display.

[第二実施形態]
第一実施形態を含め、従来技術では、コンテンツ表示の自由度は制限されており、バルーン、ピン、写真、アイコンなどを表示できるにすぎなかった。しかしながら、第一実施形態で説明した対象点の角度と位置を決定する処理によれば、水平位置だけでなく垂直位置も精度よく画面上に表示させることができる。従って、建物の形状に合わせたオブジェクト(対象物)など設計の自由度が高いオブジェクトを表示させることができる。
[Second Embodiment]
In the prior art including the first embodiment, the degree of freedom of content display is limited, and only balloons, pins, photos, icons, etc. can be displayed. However, according to the process for determining the angle and position of the target point described in the first embodiment, not only the horizontal position but also the vertical position can be accurately displayed on the screen. Accordingly, it is possible to display an object having a high degree of design freedom, such as an object (target object) that matches the shape of the building.

ここで、図18Aから18Eは、対象物に対して4つの対象点を有するコンテンツを表示させる手順を示す。なお、以下の処理を実行するため、コンテンツサーバには、従来と異なり、1つの対象物の形状を特定するための対象点(対象物の角部に対応)の経度、緯度、高さを予め格納しておく必要がある。なお、本実施形態では、4つの対象点を例に説明するが、例えば8つの対象点を特定することで立体的な表示も可能となる。以下、看板を表示する場合を例に説明する。   Here, FIGS. 18A to 18E show a procedure for displaying content having four target points on an object. In order to execute the following processing, the content server previously stores the longitude, latitude, and height of the target point (corresponding to the corner of the target object) for specifying the shape of one target object in advance. Must be stored. In the present embodiment, four target points will be described as an example. For example, by specifying eight target points, a three-dimensional display is also possible. Hereinafter, a case where a signboard is displayed will be described as an example.

まず、図18Aに示すように、携帯端末の制御部21は、水平位置の対象点を特定(プロット)する。すなわち、看板の下辺の両端に相当する対象点を、第一実施形態の仮位置決めの処理で説明した対象点Aの角度と距離の算出処理に従って特定する。次に、図18Bに示すように、携帯端末の制御部21は、高さ位置の対象点を特定する。すなわち、看板の上辺の両端に相当する対象点を、第一実施形態の仮位置決めの処理で説明した対象点Aの角度と距離の算出処理に従って特定する。次に、図18Cに示すように、携帯端末の制御部21は、特定した4つの対象点を結び外郭を特定する。次に、図18Dに示すように、携帯端末の制御部21は、4つの対象点を結ぶことで決定された領域(外郭の内側)を面として特定する。更に、図18Eに示すように、携帯端末の制御部21は、特定された面に対してテキストを設定する。なお、テキストに代えて、写真、イラストなどを用いてもよい。また、ハイパーリンクの設定を行ってもよい。また、携帯端末の制御部21は、プロットを結ぶことで囲まれた面のテクスチャ、明度・輝度、色、グラデーションなどを設定してもよい。   First, as illustrated in FIG. 18A, the control unit 21 of the mobile terminal specifies (plots) a target point in the horizontal position. That is, the target points corresponding to both ends of the lower side of the signboard are specified according to the angle and distance calculation process of the target point A described in the temporary positioning process of the first embodiment. Next, as illustrated in FIG. 18B, the control unit 21 of the mobile terminal specifies the target point of the height position. That is, the target points corresponding to both ends of the upper side of the signboard are specified according to the calculation process of the angle and distance of the target point A described in the temporary positioning process of the first embodiment. Next, as illustrated in FIG. 18C, the control unit 21 of the mobile terminal connects the four specified target points and specifies the outline. Next, as illustrated in FIG. 18D, the control unit 21 of the mobile terminal specifies an area (inside the outline) determined by connecting the four target points as a plane. Furthermore, as illustrated in FIG. 18E, the control unit 21 of the mobile terminal sets text on the specified surface. Note that a photo, an illustration, or the like may be used instead of the text. Moreover, you may set a hyperlink. Further, the control unit 21 of the mobile terminal may set the texture, brightness / brightness, color, gradation, and the like of the surface surrounded by connecting the plots.

(効果)
以上説明した第二実施形態に係る情報処理システム1によれば、カメラ案内画面に種々の形状のオブジェクトを表示させることができる。換言すると、拡張現実空間上に、使用者が自由にデザインした構築物等を、リアルに配置することができる。
(effect)
According to the information processing system 1 according to the second embodiment described above, objects having various shapes can be displayed on the camera guidance screen. In other words, a structure or the like freely designed by the user can be arranged in real on the augmented reality space.

以上本発明の実施形態について説明したが、本発明はこれらに限らず、可能な限りこれらの組合せを含むことができる。   Although the embodiments of the present invention have been described above, the present invention is not limited to these, and can include combinations thereof as much as possible.

1・・・情報処理システム
2・・・携帯端末
3・・・コンテンツ管理サーバ
DESCRIPTION OF SYMBOLS 1 ... Information processing system 2 ... Portable terminal 3 ... Content management server

Claims (5)

現実空間を撮影するカメラと、
前記カメラによって撮影された現実空間に関する映像を表示する表示部と、
前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得部と、
前記取得部で取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御部と、を備え、
前記制御部は、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定し、更に、前記映像を解析して前記コンテンツ表示位置を補正し、
前記コンテンツ表示位置の補正では、前記制御部は、前記映像を解析して道路の境界としての境界基準線を前記画面に対して設定し、道路に関連するコンテンツ以外のコンテンツを道路外に移動する補正と、前記カメラの現在地としての原点に近いコンテンツを前記距離基準線の近傍に配置し、当該原点に近いコンテンツ以外のコンテンツを順次奥に配置する補正とのうち少なくとも何れか一方の補正を行う、情報処理装置。
A camera that captures the real space,
A display unit for displaying an image of the real space photographed by the camera;
Access to a storage device storing content to be displayed overlaid on the video, and based on position information including the position and orientation of the camera, the position of the target to display the content among the targets included in the video An acquisition unit for acquiring information and the content;
A control unit that causes the content acquired by the acquisition unit to be superimposed on the video and displayed on the display unit,
The control unit sets an azimuth reference line for azimuth and a distance reference line for distance on the screen, and calculates the position of the object relative to the camera based on the position information of the camera and the position information of the object. A horizontal position of the object on the screen based on the azimuth reference line, a vertical position of the object on the screen based on the distance reference line, and a display position of the object on the screen Further, analyzing the video and correcting the content display position,
In the correction of the content display position, the control unit analyzes the video, sets a boundary reference line as a road boundary for the screen, and moves content other than content related to the road to the outside of the road. At least one of correction and correction that places content close to the origin as the current location of the camera in the vicinity of the distance reference line and sequentially places content other than content close to the origin in the back is performed. , the information processing apparatus.
前記制御部は、前記画面に対して方位に関する方位基準線と距離に関する距離基準線を設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラの光軸に対する前記対象物の角度と、前記カメラから前記対象物までの距離を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定する、請求項1に記載の情報処理装置。   The control unit sets an azimuth reference line for azimuth and a distance reference line for distance with respect to the screen, and the object relative to the optical axis of the camera based on position information of the camera and position information of the object And the distance from the camera to the object is determined, the horizontal position of the object on the screen is specified based on the azimuth reference line, and the object on the screen is determined based on the distance reference line. The information processing apparatus according to claim 1, wherein a vertical position of the object is specified, and a display position of the object on the screen is specified. 前記対象物の位置情報には、対象物の形状を特定する3つ以上の対象点の位置情報が含まれ、
前記制御部は、前記対象点の夫々について前記画面における水平位置及び垂直位置を特定し、特定された対象点を結ぶことで面を設定し、設定された面にテキストを設定する、
請求項1又は2に記載の情報処理装置。
The position information of the target object includes position information of three or more target points that specify the shape of the target object,
The control unit specifies a horizontal position and a vertical position on the screen for each of the target points, sets a surface by connecting the specified target points, and sets text on the set surface,
The information processing apparatus according to claim 1 or 2.
前記制御部は、前記映像を解析して前記現実空間を構成する景色のうち、他の景色に優先して表示すべき景色の境界線を優先境界基準線として前記画面に対して設定し、前記優先境界基準線を基準に前記コンテンツ表示位置を補正する、請求項1からの何れか1項に記載の情報処理装置。 The control unit analyzes the video and sets a boundary line of a scene to be displayed with priority over other scenery among the scenes constituting the real space as a priority boundary reference line, and correcting the content display position based on the priority boundary reference line, the information processing apparatus according to any one of claims 1 to 3. 現実空間を撮影するカメラと、前記カメラによって撮影された現実空間に関する映像を表示する表示部と、を備える情報処理装置で実行される情報処理方法であって、
前記映像に重ねて表示するコンテンツが格納された記憶装置にアクセスし、前記カメラの位置及び方位を含む位置情報に基づいて、前記映像に含まれる対象物のうち前記コンテンツを表示する対象物の位置情報及び該コンテンツを取得する取得ステップと、
前記取得ステップで取得されたコンテンツを前記映像に重ね合わせて前記表示部に表示させる制御ステップと、を備え、
前記制御ステップでは、方位に関する方位基準線と距離に関する距離基準線を前記画面に設定し、前記カメラの位置情報と前記対象物の位置情報に基づいて、前記カメラに対する前記対象物の位置を算出し、前記方位基準線に基づいて前記画面における前記対象物の水平位置を特定し、前記距離基準線に基づいて前記画面における前記対象物の垂直位置を特定し、前記画面における前記対象物の表示位置を特定し、更に、前記映像を解析して前記コンテンツ表示位置を補正し、
前記コンテンツ表示位置の補正について、前記制御ステップでは、前記映像を解析して道路の境界としての境界基準線を前記画面に対して設定し、道路に関連するコンテンツ以外のコンテンツを道路外に移動する補正と、前記カメラの現在地としての原点に近いコンテンツを前記距離基準線の近傍に配置し、当該原点に近いコンテンツ以外のコンテンツを順次奥に配置する補正とのうち少なくとも何れか一方の補正を行う、情報処理方法。
An information processing method executed by an information processing apparatus comprising: a camera that captures a real space; and a display unit that displays an image related to the real space captured by the camera,
Access to a storage device storing content to be displayed overlaid on the video, and based on position information including the position and orientation of the camera, the position of the target to display the content among the targets included in the video An acquisition step of acquiring information and the content;
A control step of superimposing the content acquired in the acquisition step on the video and displaying the content on the display unit,
In the control step, an azimuth reference line for azimuth and a distance reference line for distance are set on the screen, and the position of the object relative to the camera is calculated based on the position information of the camera and the position information of the object. A horizontal position of the object on the screen based on the azimuth reference line, a vertical position of the object on the screen based on the distance reference line, and a display position of the object on the screen Further, analyzing the video and correcting the content display position,
Regarding the correction of the content display position, in the control step, a boundary reference line as a road boundary is set for the screen by analyzing the video, and content other than the content related to the road is moved out of the road. At least one of correction and correction that places content close to the origin as the current location of the camera in the vicinity of the distance reference line and sequentially places content other than content close to the origin in the back is performed. , an information processing method.
JP2013505679A 2011-03-22 2011-03-22 Information processing apparatus and information processing method Active JP5728775B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/056784 WO2012127605A1 (en) 2011-03-22 2011-03-22 Information processing device and information processing method

Publications (2)

Publication Number Publication Date
JPWO2012127605A1 JPWO2012127605A1 (en) 2014-07-24
JP5728775B2 true JP5728775B2 (en) 2015-06-03

Family

ID=46878801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013505679A Active JP5728775B2 (en) 2011-03-22 2011-03-22 Information processing apparatus and information processing method

Country Status (2)

Country Link
JP (1) JP5728775B2 (en)
WO (1) WO2012127605A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087134B2 (en) 2017-05-30 2021-08-10 Artglass Usa, Llc Augmented reality smartglasses for use at cultural sites

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2793193B1 (en) * 2011-12-15 2019-03-27 Pioneer Corporation Display device and display method
GB2506338A (en) 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
CN105934775B (en) * 2013-11-26 2020-06-05 约阿夫·谢斐 Method and system for constructing virtual images anchored on real-world objects
WO2016031358A1 (en) * 2014-08-27 2016-03-03 ソニー株式会社 Display control device, display control method, and program
JP6651777B2 (en) * 2015-01-14 2020-02-19 株式会社リコー Information processing apparatus, information processing method and program
JP6481456B2 (en) 2015-03-26 2019-03-13 富士通株式会社 Display control method, display control program, and information processing apparatus
JP6356909B2 (en) 2015-04-23 2018-07-11 株式会社東芝 Client system, client system management method, system controller
JP6496671B2 (en) * 2016-01-13 2019-04-03 株式会社ぐるなび Information processing apparatus, terminal apparatus, information processing method, and program
JP6719315B2 (en) * 2016-07-20 2020-07-08 株式会社日立製作所 Railway obstacle range visualization system
US10429191B2 (en) * 2016-09-22 2019-10-01 Amadeus S.A.S. Systems and methods for improved data integration in augmented reality architectures
TWI617931B (en) * 2016-09-23 2018-03-11 李雨暹 Method and system for remote management of location-based space object
JP6437688B2 (en) * 2018-06-14 2018-12-12 株式会社東芝 Unit corresponding to application specification
JP6567746B2 (en) * 2018-09-03 2019-08-28 株式会社東芝 Client system
JP6668428B2 (en) * 2018-09-03 2020-03-18 株式会社東芝 Unit control method
CN112541467A (en) * 2020-12-21 2021-03-23 杭州光粒科技有限公司 Information display method, device and equipment and storage medium
WO2023276141A1 (en) * 2021-07-02 2023-01-05 Mitsubishi Electric Corporation Providing system and providing method
EP4394719A1 (en) * 2021-08-25 2024-07-03 Sony Semiconductor Solutions Corporation Information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005289264A (en) * 2004-04-01 2005-10-20 Furuno Electric Co Ltd Vessel navigation supporting system
JP2010244575A (en) * 2004-08-19 2010-10-28 Sony Computer Entertainment Inc Portable augmented reality device and method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005289264A (en) * 2004-04-01 2005-10-20 Furuno Electric Co Ltd Vessel navigation supporting system
JP2010244575A (en) * 2004-08-19 2010-10-28 Sony Computer Entertainment Inc Portable augmented reality device and method therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200810004093; 小田島太郎, 外2名: '"GPSを用いた屋外で利用可能なウェアラブル型拡張現実感システム"' FIT2002 情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラフィク , 20020913, p.187-188 *
JPN6014049370; 小田島太郎, 外2名: '"GPSを用いた屋外で利用可能なウェアラブル型拡張現実感システム"' FIT2002 情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラフィク , 20020913, p.187-188 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087134B2 (en) 2017-05-30 2021-08-10 Artglass Usa, Llc Augmented reality smartglasses for use at cultural sites
US12001974B2 (en) 2017-05-30 2024-06-04 Artglass Usa Llc Augmented reality smartglasses for use at cultural sites

Also Published As

Publication number Publication date
WO2012127605A1 (en) 2012-09-27
JPWO2012127605A1 (en) 2014-07-24

Similar Documents

Publication Publication Date Title
JP5728775B2 (en) Information processing apparatus and information processing method
US11692842B2 (en) Augmented reality maps
JP5383930B2 (en) Method for providing information on object contained in visual field of terminal device, terminal device and computer-readable recording medium
US10309797B2 (en) User interface for displaying navigation information in a small display
US8467810B2 (en) Method and system for reporting errors in a geographic database
US10445772B1 (en) Label placement based on objects in photographic images
US9404753B2 (en) Navigating on images
US8036678B2 (en) Real-time geographic information system and method
US11060880B2 (en) Route planning method and apparatus, computer storage medium, terminal
US20130162665A1 (en) Image view in mapping
US20110137561A1 (en) Method and apparatus for measuring geographic coordinates of a point of interest in an image
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
JP5652097B2 (en) Image processing apparatus, program, and image processing method
US20130103303A1 (en) Three Dimensional Routing
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP5877394B2 (en) Content providing system, server, and content providing method
US20220076469A1 (en) Information display device and information display program
JP6384898B2 (en) Route guidance system, method and program
RU2375756C2 (en) Navigation device with information received from camera
US8869058B1 (en) Interface elements for specifying pose information for photographs in an online map system
KR102157999B1 (en) Apparatus and method for automatically recognizing local information through focusing around a user
JP6019680B2 (en) Display device, display method, and display program
US20210090267A1 (en) Information processing system, information processing method, and information processing apparatus
JP2006146562A (en) Information processor, information processing system, information processing method, its program, and recording medium recorded with the program
JP2006146561A (en) Information processing system, its method and program and recording medium recording the program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150319

R150 Certificate of patent or registration of utility model

Ref document number: 5728775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250