JP2010048616A - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
JP2010048616A
JP2010048616A JP2008211902A JP2008211902A JP2010048616A JP 2010048616 A JP2010048616 A JP 2010048616A JP 2008211902 A JP2008211902 A JP 2008211902A JP 2008211902 A JP2008211902 A JP 2008211902A JP 2010048616 A JP2010048616 A JP 2010048616A
Authority
JP
Japan
Prior art keywords
data
mobile terminal
acquiring
image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008211902A
Other languages
Japanese (ja)
Inventor
Takashi Katayama
崇 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008211902A priority Critical patent/JP2010048616A/en
Publication of JP2010048616A publication Critical patent/JP2010048616A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a positional relationship relative to an object to be intuitively comprehended. <P>SOLUTION: A mechanism for acquiring image data 201 is installed in a mobile body and image data taken in real time is output. A position coordinate data calculating section 211 calculates coordinates of a static target relative to a self position based on positional information of the mobile body obtained by a self position data acquiring section 208, azimuth direction information in a direction of eyesight center of the mechanism for acquiring image data 201 obtained by an azimuth direction data acquiring section 207, and positional information of the static target obtained by a static target position data acquiring section 210. A display data generating section 212, based on the coordinates calculated by the position coordinate data calculating section 211, generates an image overlaid with a symbol denoting the static target on the image acquired by an image data acquiring section 206 to output it in a display data outputting mechanism 213. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、位置情報を提供する移動端末装置に関する。   The present invention relates to a mobile terminal device that provides location information.

従来、ナビゲーション装置などにおいて、位置情報の視覚化は地図(地勢)情報を用いたトップビュー表示が一般的であったが、装備や操作が制限される移動端末装置では、ユーザが直感的に位置情報を把握できるものではなかった。   Conventionally, in a navigation device or the like, the top view display using map (terrain) information has been generally used for visualization of position information. However, in a mobile terminal device in which equipment and operations are restricted, the user can intuitively locate the position information. It was not possible to grasp the information.

また、本願に関連する公知文献として次のようなものがある(例えば、特許文献1を参照。)。
特開2006−105640公報
Further, there are the following publicly known documents related to the present application (see, for example, Patent Document 1).
JP 2006-105640 A

上述したように、従来の位置情報の表示方法では、装備や操作が制限される移動端末装置において、ユーザが位置情報を直感的に把握するのが困難であった。   As described above, in the conventional position information display method, it is difficult for the user to intuitively grasp the position information in the mobile terminal device in which equipment and operation are restricted.

この発明は上記事情に着目してなされたもので、その目的とするところは、目標に対する位置関係を直感的に把握することができる移動端末装置を提供することにある。   The present invention has been made paying attention to the above circumstances, and an object thereof is to provide a mobile terminal device capable of intuitively grasping a positional relationship with respect to a target.

上記目的を達成するためにこの発明は、撮像装置が搭載された移動体に取り付けられる移動端末装置であって、静的目標の位置情報を予め記憶する位置記憶手段と、撮像装置により撮像された画像のデータを取得する画像取得手段と、前記移動体の位置情報を取得する位置取得手段と、前記撮像装置の視界中心方向の方位情報を取得する方位取得手段と、前記位置取得手段により取得された位置情報と、前記方位取得手段により取得された方位情報と、前記記憶された静的目標の位置情報とをもとに当該移動体に対する前記静的目標の座標を計算する計算手段と、前記計算手段により計算された座標に基づいて、前記画像取得手段により取得された画像に前記静的目標を表すシンボルを重畳して表示する表示手段とを具備する。   In order to achieve the above object, the present invention is a mobile terminal device attached to a moving body on which an imaging device is mounted, and is captured by a position storage means for storing static target position information in advance and the imaging device. Acquired by image acquisition means for acquiring image data, position acquisition means for acquiring position information of the moving body, azimuth acquisition means for acquiring azimuth information in the center direction of the field of view of the imaging device, and the position acquisition means Calculation means for calculating the coordinates of the static target with respect to the moving body based on the positional information, the azimuth information acquired by the azimuth acquisition means, and the stored static target position information; Display means for superimposing and displaying a symbol representing the static target on the image acquired by the image acquisition means based on the coordinates calculated by the calculation means.

また、この発明の他の態様は、撮像装置が搭載された移動体に取り付けられる移動端末装置であって、動的目標の位置情報を無線回線を介して受信する位置受信手段と、撮像装置により撮像された画像のデータを取得する画像取得手段と、前記移動体の位置情報を取得する位置取得手段と、前記撮像装置の視界中心方向の方位情報を取得する方位取得手段と、前記位置取得手段により取得された位置情報と、前記方位取得手段により取得された方位情報と、前記受信された動的目標の位置情報とをもとに当該移動体に対する前記動的目標の座標を計算する計算手段と、前記計算手段により計算された座標に基づいて、前記画像取得手段により取得された画像に前記動的目標を表すシンボルを重畳して表示する表示手段とを具備するものである。   According to another aspect of the present invention, there is provided a mobile terminal device that is attached to a moving body on which an imaging device is mounted. The mobile terminal device receives position information of a dynamic target via a wireless line, and an imaging device. Image acquisition means for acquiring captured image data, position acquisition means for acquiring position information of the moving body, azimuth acquisition means for acquiring azimuth information in the visual field center direction of the imaging device, and the position acquisition means The calculation means for calculating the coordinates of the dynamic target with respect to the moving object based on the position information acquired by the above, the direction information acquired by the direction acquisition means, and the received position information of the dynamic target And display means for superimposing and displaying a symbol representing the dynamic target on the image acquired by the image acquisition means based on the coordinates calculated by the calculation means.

したがってこの発明によれば、目標に対する位置関係を直感的に把握することができる移動端末装置を提供することができる。   Therefore, according to this invention, the mobile terminal device which can grasp | ascertain the positional relationship with respect to a target intuitively can be provided.

以下、図面を参照しながら本発明の実施の形態を詳細に説明する。
図1に、本発明に係る移動端末装置の一実施形態の構成例を示す。また、図2に、この移動端末装置及び各機器が利用者に取り付けられた状態を示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 shows a configuration example of an embodiment of a mobile terminal apparatus according to the present invention. FIG. 2 shows a state in which the mobile terminal device and each device are attached to the user.

この移動端末装置は、図1に示すように、利用者A〜Cにそれぞれ携帯されるものである。移動端末装置は、GPS(Global Positioning System)受信機を備え、GPSから自装置の位置情報を取得している。各端末間は無線LANなどにより互いに接続され、上記取得された位置情報を相互に送受信できる機能を有する。また、利用者A〜Cには、カメラ、HMD(ヘッドマウントディスプレイ)、及び方位センサがセットになったユニットが取り付けられる。図2に示すように、このユニットは、カメラの視界方向と、利用者の視界方向がほぼ一致するように構成される。方位センサは、カメラの視界中心方向の方位を検知する。移動端末装置はこれら機器にそれぞれ接続され、各機器を通じて位置情報/方位情報/映像情報を取得する機能を有する。   As shown in FIG. 1, this mobile terminal device is carried by each of users A to C. The mobile terminal device includes a GPS (Global Positioning System) receiver, and acquires position information of the mobile device from the GPS. The terminals are connected to each other by a wireless LAN or the like, and have a function of transmitting / receiving the acquired location information to / from each other. In addition, a unit including a camera, an HMD (head mounted display), and an orientation sensor is attached to the users A to C. As shown in FIG. 2, this unit is configured such that the viewing direction of the camera and the viewing direction of the user substantially coincide. The azimuth sensor detects the azimuth of the camera's visual field center direction. The mobile terminal device is connected to each of these devices and has a function of acquiring position information / direction information / video information through each device.

図3は、この移動端末装置の内部構成を示すブロック図である。
映像データ取得機構201は、リアルタイムに撮像された映像データを出力する機能を有するデバイスであり、例えばウェブカメラで構成される。方位データ取得機構202は、方位情報を取得する機能を有するデバイスであり、方位センサ等が用いられる。自己位置データ取得機構203は、現在の位置情報を取得する機能を有するデバイスであり、例えばGPS受信機が用いられる。動的目標位置データ受信機構204は、他の移動端末装置の位置データを取得するための通信デバイスであり、無線LANなどの通信インタフェースで構成される。静的目標位置データ保持機構205は、静的なオブジェクトの位置データをあらかじめ格納しておく記憶装置であり、不揮発性のストレージデバイス等が用いられる。
FIG. 3 is a block diagram showing the internal configuration of this mobile terminal apparatus.
The video data acquisition mechanism 201 is a device having a function of outputting video data captured in real time, and is configured by a web camera, for example. The orientation data acquisition mechanism 202 is a device having a function of acquiring orientation information, and an orientation sensor or the like is used. The self-position data acquisition mechanism 203 is a device having a function of acquiring current position information, and for example, a GPS receiver is used. The dynamic target position data receiving mechanism 204 is a communication device for acquiring position data of another mobile terminal device, and is configured by a communication interface such as a wireless LAN. The static target position data holding mechanism 205 is a storage device that stores in advance position data of static objects, and a non-volatile storage device or the like is used.

映像データ取得部206は、映像データ取得機構201より映像情報データを取得し表示データ生成部212に映像情報データを渡す。方位データ取得部207は、方位データ取得機構202より映像データ取得機構201の視界中心方向に対応する東西南北の方位データを取得し位置座標データ計算部211に方位データを渡す。自己位置データ取得部208は、自己位置データ取得機構203より現在位置データを取得し位置座標データ計算部211に位置データを渡す。動的目標位置データ受信部209は、動的目標位置データ受信機構204より他端末の位置情報データを取得し、取得した他端末の位置情報データを位置座標データ計算部211に渡す。静的目標位置データ取得部210は、静的目標位置データ保持機構205に記憶された静的オブジェクトの位置データを位置座標データ計算部211に渡す。   The video data acquisition unit 206 acquires video information data from the video data acquisition mechanism 201 and passes the video information data to the display data generation unit 212. The azimuth data acquisition unit 207 acquires east, west, south, and north azimuth data corresponding to the visual field center direction of the video data acquisition mechanism 201 from the azimuth data acquisition mechanism 202 and passes the azimuth data to the position coordinate data calculation unit 211. The self position data acquisition unit 208 acquires the current position data from the self position data acquisition mechanism 203 and passes the position data to the position coordinate data calculation unit 211. The dynamic target position data receiving unit 209 acquires the position information data of the other terminal from the dynamic target position data receiving mechanism 204 and passes the acquired position information data of the other terminal to the position coordinate data calculation unit 211. The static target position data acquisition unit 210 passes the position data of the static object stored in the static target position data holding mechanism 205 to the position coordinate data calculation unit 211.

また、自己位置データ送信部214は、自己位置データ取得部208により取得された自己位置のデータを自己位置データ送信機構215を用いて他端末に送信する処理を行う。自己位置データ送信機構215は、自己位置データ送信部214より他の端末へ向けて自己位置データを送信するためのデバイスであり、例えば、無線LANなどの通信インタフェースが用いられる。   The self-location data transmission unit 214 performs processing for transmitting the self-location data acquired by the self-location data acquisition unit 208 to other terminals using the self-location data transmission mechanism 215. The self-location data transmission mechanism 215 is a device for transmitting self-location data from the self-location data transmission unit 214 to another terminal, and for example, a communication interface such as a wireless LAN is used.

位置座標データ計算部211は、方位データ、自己位置データ、動的/静的オブジェクトの位置データを受け取り、自己位置とオブジェクトの位置を2次元座標に変換する。変換した2次元座標データは表示データ生成部212に渡される。   The position coordinate data calculation unit 211 receives azimuth data, self position data, and dynamic / static object position data, and converts the self position and the object position into two-dimensional coordinates. The converted two-dimensional coordinate data is transferred to the display data generation unit 212.

表示データ生成部212は、映像データ取得部206より渡された映像データに、位置座標データ計算部211から渡された2次元座標データで示されるオブジェクトを表すシンボルを重畳した画像データを生成する。生成した表示データは表示データ出力機構に213に渡される。表示データ出力機構213は、表示データ生成部212から渡された画像データを表示するためのデバイスであり、例えば、HMD(ヘッドマウントディスプレイ)が用いられる。利用者へはこの表示データ出力機構を用いて表示データ生成部212で生成された画像データを視認させる。   The display data generation unit 212 generates image data in which the video data passed from the video data acquisition unit 206 is superimposed with a symbol representing an object indicated by the two-dimensional coordinate data passed from the position coordinate data calculation unit 211. The generated display data is transferred to the display data output mechanism 213. The display data output mechanism 213 is a device for displaying the image data transferred from the display data generation unit 212, and for example, an HMD (head mounted display) is used. The user is made to visually recognize the image data generated by the display data generation unit 212 using this display data output mechanism.

次に、このように構成された移動端末装置の動作について説明する。
この移動端末装置は、定期的に情報の取り込み、座標変換処理、及び表示データの生成を繰り返し行うものである。
Next, the operation of the mobile terminal apparatus configured as described above will be described.
This mobile terminal apparatus repeatedly takes in information, periodically performs coordinate conversion processing, and generates display data.

(情報の取り込み)
図4に示すように、映像データ取得部206、方位データ取得部207、自己位置データ取得部208、及び静的目標位置データ取得部210においてそれぞれ情報の取り込みが実施される。映像データ取得部206は、映像データ取得機構201のデバイスが撮影している視界映像をリアルタイムにデータとして取込み、表示データ生成部212に渡す。方位データ取得部207は、方位データ取得機構202のデバイスが捉えている映像データ取得機構201の視界中心方向の方位情報をリアルタイムにデータとして取り込む。自己位置データ取得部208は自己位置データ取得機構203のデバイスで捉えている自己位置情報(緯度経度)をデータとして取り込む。動的目標位置データ受信部209は、動的目標位置データ受信機構204のデバイスを通じて他端末の位置情報データを受信する。静的目標位置データ取得部210は、静的目標位置データ保持機構205のデバイスに格納された静的目標(固定目標)の位置情報(緯度経度)をデータとして取り込む。
(Importing information)
As shown in FIG. 4, the video data acquisition unit 206, the orientation data acquisition unit 207, the self-position data acquisition unit 208, and the static target position data acquisition unit 210 each capture information. The video data acquisition unit 206 takes in the field-of-view video captured by the device of the video data acquisition mechanism 201 as data in real time, and passes it to the display data generation unit 212. The azimuth data acquisition unit 207 takes azimuth information in the center direction of the visual field of the video data acquisition mechanism 201 captured by the device of the azimuth data acquisition mechanism 202 as data in real time. The self-position data acquisition unit 208 takes in the self-position information (latitude and longitude) captured by the device of the self-position data acquisition mechanism 203 as data. The dynamic target position data receiving unit 209 receives the position information data of other terminals through the device of the dynamic target position data receiving mechanism 204. The static target position data acquisition unit 210 takes in the position information (latitude and longitude) of the static target (fixed target) stored in the device of the static target position data holding mechanism 205 as data.

一方、自己位置データ送信部214では自己位置データ取得部208で取得した自己位置データを、自己位置データ送信機構215のデバイスを通じて他端末に向けてブロードキャスト送信を行うことで、他端末の動的目標位置データ受信部209によって動的目標位置データとして受信される。   On the other hand, the self-position data transmission unit 214 performs broadcast transmission of the self-position data acquired by the self-position data acquisition unit 208 to other terminals through the device of the self-position data transmission mechanism 215, so that the dynamic target of the other terminal The position data receiving unit 209 receives the dynamic target position data.

(座標変換処理)
上記取込まれた情報は二次元座標に変換するため、位置座標データ計算部211にて処理される。位置座標データ計算部211は、緯度経度の絶対座標から自己位置を中心とした相対座標平面に静的目標の位置情報をマッピングする。図5に示すように、マッピングする際には方位データを元に視界方向が正面になるよう座標位置を相対的に回転させる。併せて自己位置と各動的/静的目標の位置情報(緯度/経度)から各動的/静的目標までの距離も計算する。図6に示すように、動的目標が移動した場合にはその位置及び距離が再計算される。
(Coordinate conversion process)
The taken-in information is processed by the position coordinate data calculation unit 211 in order to convert it into two-dimensional coordinates. The position coordinate data calculation unit 211 maps the position information of the static target from the absolute coordinates of latitude and longitude to the relative coordinate plane centered on the self position. As shown in FIG. 5, when mapping, the coordinate position is relatively rotated based on the azimuth data so that the visual field direction is the front. At the same time, the distance to each dynamic / static target is calculated from the self-position and the position information (latitude / longitude) of each dynamic / static target. As shown in FIG. 6, when the dynamic target moves, its position and distance are recalculated.

(表示データ生成)
表示データ生成部212は、位置座標データ計算部211で二次元座標に変換されたデータをもとに視界方向を正面とする二次元平面に再展開する。この際カメラで取得した映像データは視界範囲が限定されるため元の二次元座標データにおいて視界正面方向左右120度程度に収まる範囲の目標のみを描画する。描画時に奥行きとチルト(上下方向の傾き)は考慮しないで横方向のみを利用する。目標を描画する際、目標との相対距離も併せて描画を行う。最終的にこの目標が描画された画像と取り込んだ視界映像の映像データを重畳させることで、視界映像に目標位置と目標位置までの距離がリアルタイムに表現される。
(Display data generation)
The display data generation unit 212 re-develops a two-dimensional plane whose front direction is the visual field direction based on the data converted into two-dimensional coordinates by the position coordinate data calculation unit 211. At this time, since the field of view of the video data acquired by the camera is limited, only the target in a range that falls within about 120 degrees right and left in the front direction of the field in the original two-dimensional coordinate data is drawn. When drawing, only the horizontal direction is used without considering the depth and tilt (tilt in the vertical direction). When drawing a target, drawing is performed together with a relative distance from the target. Finally, the target image and the distance to the target position are represented in real time in the visual field image by superimposing the image in which the target is drawn and the captured visual field image data.

この状態の画像データを表示データ出力機構213のデバイスに出力することで、利用者は視界画像に重ねられて目標の位置(方向)と距離を視覚的に認識することができる。上記した情報の取り込み、座標変換処理、及び表示データの生成の一連の流れを高速に繰り返すことでリアルタイムに可視化された映像を利用者に提供することができる。   By outputting the image data in this state to the device of the display data output mechanism 213, the user can visually recognize the target position (direction) and distance superimposed on the view field image. It is possible to provide a user with an image visualized in real time by repeating the above-described series of information acquisition, coordinate conversion processing, and display data generation at high speed.

以上述べたように、上記実施形態によれば、利用者は自身の視界映像に重ねて目標の方向や距離が動的に視覚化されることで、リアルタイムかつ直感的に目標までの距離や方向を判断することが可能となる。   As described above, according to the above-described embodiment, the user can dynamically visualize the target direction and distance on the field of view image, and thus the distance and direction to the target in real time and intuitively. Can be determined.

なお、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明に係る移動端末装置の一実施形態の構成例を示す図。The figure which shows the structural example of one Embodiment of the mobile terminal device which concerns on this invention. 図1の移動端末装置の取り付け状態を示す図。The figure which shows the attachment state of the mobile terminal device of FIG. 図1の移動端末装置の構成を示す機能ブロック図。The functional block diagram which shows the structure of the mobile terminal device of FIG. 図1の移動端末装置の動作を示す図。The figure which shows operation | movement of the mobile terminal device of FIG. 図1の移動端末装置の動作を示す図。The figure which shows operation | movement of the mobile terminal device of FIG. 図1の移動端末装置の動作を示す図。The figure which shows operation | movement of the mobile terminal device of FIG.

符号の説明Explanation of symbols

201…映像データ取得機構、202…方位データ取得機構、203…自己位置データ取得機構、204…動的目標位置データ受信機構、205…静的目標位置データ保持機構、206…映像データ取得部、207…方位データ取得部、208…自己位置データ取得部、209…動的目標位置データ受信部、210…静的目標位置データ取得部、211…位置座標計算部、212…表示データ生成部、213…表示データ出力機構、214…自己位置データ送信部、215…自己位置データ送信機構。   201 ... Video data acquisition mechanism, 202 ... Direction data acquisition mechanism, 203 ... Self-position data acquisition mechanism, 204 ... Dynamic target position data reception mechanism, 205 ... Static target position data holding mechanism, 206 ... Video data acquisition unit, 207 ... Direction data acquisition unit, 208 ... Self-position data acquisition unit, 209 ... Dynamic target position data reception unit, 210 ... Static target position data acquisition unit, 211 ... Position coordinate calculation unit, 212 ... Display data generation unit, 213 ... Display data output mechanism, 214... Self-position data transmission unit, 215... Self-position data transmission mechanism.

Claims (3)

撮像装置が搭載された移動体に取り付けられる移動端末装置であって、
静的目標の位置情報を予め記憶する位置記憶手段と、
撮像装置により撮像された画像のデータを取得する画像取得手段と、
前記移動体の位置情報を取得する位置取得手段と、
前記撮像装置の視界中心方向の方位情報を取得する方位取得手段と、
前記位置取得手段により取得された位置情報と、前記方位取得手段により取得された方位情報と、前記記憶された静的目標の位置情報とをもとに当該移動体に対する前記静的目標の座標を計算する計算手段と、
前記計算手段により計算された座標に基づいて、前記画像取得手段により取得された画像に前記静的目標を表すシンボルを重畳して表示する表示手段と
を具備することを特徴とする移動端末装置。
A mobile terminal device attached to a moving body on which an imaging device is mounted,
Position storage means for storing in advance the position information of the static target;
Image acquisition means for acquiring data of an image captured by the imaging device;
Position acquisition means for acquiring position information of the moving body;
Azimuth acquisition means for acquiring azimuth information of the visual field center direction of the imaging device;
Based on the position information acquired by the position acquisition unit, the direction information acquired by the direction acquisition unit, and the position information of the stored static target, the coordinates of the static target with respect to the moving object are obtained. A calculation means for calculating;
A mobile terminal apparatus comprising: a display unit configured to superimpose and display a symbol representing the static target on the image acquired by the image acquisition unit based on the coordinates calculated by the calculation unit.
撮像装置が搭載された移動体に取り付けられる移動端末装置であって、
動的目標の位置情報を無線回線を介して受信する位置受信手段と、
撮像装置により撮像された画像のデータを取得する画像取得手段と、
前記移動体の位置情報を取得する位置取得手段と、
前記撮像装置の視界中心方向の方位情報を取得する方位取得手段と、
前記位置取得手段により取得された位置情報と、前記方位取得手段により取得された方位情報と、前記受信された動的目標の位置情報とをもとに当該移動体に対する前記動的目標の座標を計算する計算手段と、
前記計算手段により計算された座標に基づいて、前記画像取得手段により取得された画像に前記動的目標を表すシンボルを重畳して表示する表示手段と
を具備することを特徴とする移動端末装置。
A mobile terminal device attached to a moving body on which an imaging device is mounted,
Position receiving means for receiving position information of a dynamic target via a wireless line;
Image acquisition means for acquiring data of an image captured by the imaging device;
Position acquisition means for acquiring position information of the moving body;
Azimuth acquisition means for acquiring azimuth information of the visual field center direction of the imaging device;
Based on the position information acquired by the position acquisition unit, the direction information acquired by the direction acquisition unit, and the received position information of the dynamic target, the coordinates of the dynamic target with respect to the moving object are obtained. A calculation means for calculating;
A mobile terminal device comprising: a display unit configured to superimpose and display a symbol representing the dynamic target on the image acquired by the image acquisition unit based on the coordinates calculated by the calculation unit.
前記位置取得手段により取得された位置情報を無線回線を介して他の移動端末装置に送信する位置送信手段をさらに具備することを特徴とする請求項2記載の移動端末装置。   3. The mobile terminal apparatus according to claim 2, further comprising position transmitting means for transmitting the position information acquired by the position acquiring means to another mobile terminal apparatus via a wireless line.
JP2008211902A 2008-08-20 2008-08-20 Mobile terminal Withdrawn JP2010048616A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008211902A JP2010048616A (en) 2008-08-20 2008-08-20 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008211902A JP2010048616A (en) 2008-08-20 2008-08-20 Mobile terminal

Publications (1)

Publication Number Publication Date
JP2010048616A true JP2010048616A (en) 2010-03-04

Family

ID=42065822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008211902A Withdrawn JP2010048616A (en) 2008-08-20 2008-08-20 Mobile terminal

Country Status (1)

Country Link
JP (1) JP2010048616A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078224A (en) * 2010-10-01 2012-04-19 Olympus Corp Image generation system, program, and information storage medium
JP5266426B1 (en) * 2013-02-27 2013-08-21 イメージニクス株式会社 Information processing terminal, information processing method, information processing program
JP2016047180A (en) * 2014-08-28 2016-04-07 カシオ計算機株式会社 Exercise information prediction device, exercise information prediction program, method for calculating exercise information prediction value, and exercise information prediction system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078224A (en) * 2010-10-01 2012-04-19 Olympus Corp Image generation system, program, and information storage medium
JP5266426B1 (en) * 2013-02-27 2013-08-21 イメージニクス株式会社 Information processing terminal, information processing method, information processing program
CN104007945A (en) * 2013-02-27 2014-08-27 樱美吉尼克斯有限公司 Information processing terminal, method of processing information, and program for information processing
US20140240347A1 (en) * 2013-02-27 2014-08-28 Imagenics Co., Ltd. Information processing terminal, method of processing information, and program for information processing
KR101474534B1 (en) 2013-02-27 2014-12-22 이메지닉스 가부시키가이샤 Information processing terminal, method of processing information, and program for information processing
US9097893B2 (en) 2013-02-27 2015-08-04 Imagenics Co., Ltd Information processing terminal for superimposing target position on a head mounted display
JP2016047180A (en) * 2014-08-28 2016-04-07 カシオ計算機株式会社 Exercise information prediction device, exercise information prediction program, method for calculating exercise information prediction value, and exercise information prediction system

Similar Documents

Publication Publication Date Title
US10389937B2 (en) Information processing device, information processing method, and program
US7925434B2 (en) Image-related information displaying system
TWI269024B (en) Navigation system
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
JP2012127947A (en) Method and system of augmented navigation
US9924325B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP2006059136A (en) Viewer apparatus and its program
JP2011038944A (en) System and program for generating map-image-integrated database
JP2012043414A (en) Apparatus and method for providing augmented reality information
JP2009020098A (en) Remote entry navigation system
JP5981371B2 (en) Information terminal, system, program, and method for controlling display of augmented reality by posture
US9329050B2 (en) Electronic device with object indication function and an object indicating method thereof
JP2010048616A (en) Mobile terminal
JP2012047473A (en) Radio wave emission source estimation direction display apparatus and radio wave emission source estimation direction display method
US20160155253A1 (en) Electronic device and method of displaying images on electronic device
KR20120060283A (en) Navigation apparatus for composing camera images of vehicle surroundings and navigation information, method thereof
JP2009124254A (en) Photographing device
JP5405412B2 (en) Object display device and object display method
JP5514062B2 (en) Electronic device, imaging screen display method with information, and program
WO2011093031A1 (en) Portable terminal, action history depiction method, and action history depiction system
KR100806635B1 (en) Navigation system
JP6673699B2 (en) Terrain display system
JP2010158056A (en) Link information display device, display method thereof, and link information processing system
JP2011209622A (en) Device and method for providing information, and program
JP6433015B2 (en) Navigation device and navigation method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111101