JP2011041020A - Mobile terminal, display method, and display system - Google Patents
Mobile terminal, display method, and display system Download PDFInfo
- Publication number
- JP2011041020A JP2011041020A JP2009186799A JP2009186799A JP2011041020A JP 2011041020 A JP2011041020 A JP 2011041020A JP 2009186799 A JP2009186799 A JP 2009186799A JP 2009186799 A JP2009186799 A JP 2009186799A JP 2011041020 A JP2011041020 A JP 2011041020A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video data
- server
- mobile terminal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、携帯端末、表示方法及び表示システムに関し、特に室内あるいは障害物の陰等の場所において、室外あるいは障害物の向こう側の景色を携帯端末の画面上に表示させる技術に関する。 The present invention relates to a mobile terminal, a display method, and a display system, and more particularly, to a technique for displaying a scenery on the screen of a mobile terminal outdoors or behind an obstacle in a place such as indoors or behind an obstacle.
景色を携帯端末の表示画面上に表示するという観点においては、従来は、携帯端末に内蔵されたカメラによって撮影された映像を表示画面上に表示することが行われている。しかし、この手法においては、表示画面に表示できるのは携帯端末に内蔵されたカメラで捉えられる映像のみとなる。すなわち、携帯電話端末のユーザが室内あるいは障害物の陰に位置する場合には、室外あるいは障害物の向こう側にある景色をカメラは捉えることができないため、これらの景色を表示画面上に表示することはできない。 From the viewpoint of displaying a landscape on the display screen of a mobile terminal, conventionally, an image taken by a camera built in the mobile terminal has been displayed on the display screen. However, in this method, only images captured by a camera built in the portable terminal can be displayed on the display screen. That is, when the user of a mobile phone terminal is located indoors or behind an obstacle, the camera cannot capture the scenery outside the room or behind the obstacle, so these scenery are displayed on the display screen. It is not possible.
このような壁や障害物の向こう側の像を、X線やサーモグラフィを用いて得ることも技術的には可能である。また、壁や障害物の向こう側の像をCG(コンピュータグラフィックス)によって予め生成しておき、ゴーグル等の装置を通してCG画像を視聴可能とすることも行われている。例えば特許文献1には、CGにより作成した仮想立体映像情報を、ユーザがゴーグルを通して見ている現実空間内にはめ込んで表示させる技術が記載されている。
It is technically possible to obtain such an image of the other side of the wall or obstacle using X-rays or thermography. In addition, an image of the other side of a wall or an obstacle is generated in advance by CG (computer graphics) so that the CG image can be viewed through a device such as goggles. For example,
しかしながら、上述したような従来の技術は、その実現にコストがかかってしまう、装置が大型化してしまう、人体に悪影響を与える場合もある、得られる画像の質があまり良くない等の問題がある。これにより、このような技術を携帯端末に組み込むことが困難であるという問題があった。 However, the conventional techniques as described above have problems such as high cost, realization of the apparatus, an adverse effect on the human body, and poor quality of the obtained image. . As a result, there is a problem that it is difficult to incorporate such a technique into a portable terminal.
本発明はかかる点に鑑みてなされたものであり、簡易な構成によって、壁や障害物等の向こう側にある景色を携帯端末の表示画面上に表示させることを目的とする。 The present invention has been made in view of this point, and an object of the present invention is to display a landscape on the other side of a wall or an obstacle on a display screen of a portable terminal with a simple configuration.
本発明の一側面の携帯端末は、所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う通信部と、サーバから送信された映像データを表示する表示部とを備える。また、当該携帯端末の位置情報を検出する位置検出部と、当該携帯端末の向いている方向の情報を検出する姿勢検出部を備える。そして、位置検出部で検出された位置情報と、姿勢検出部で検出された方向の情報とに基づいて、サーバに対して所定の映像データを特定するための特定情報を生成して通信部に出力するとともに、特定情報に基づいてサーバによって抽出及び送信された映像データを表示部に表示させるようにした。 A portable terminal according to one aspect of the present invention includes a communication unit that transmits and receives data to and from a server that stores a plurality of video data obtained by photographing a predetermined landscape or building, and a video transmitted from the server. And a display unit for displaying data. Moreover, the position detection part which detects the positional information on the said portable terminal, and the attitude | position detection part which detects the information of the direction which the said portable terminal faces are provided. Based on the position information detected by the position detection unit and the direction information detected by the posture detection unit, the communication unit generates specific information for specifying predetermined video data to the server. In addition to the output, the video data extracted and transmitted by the server based on the specific information is displayed on the display unit.
このように構成したことで、携帯端末の位置情報と姿勢(方向)情報とに基づいて、サーバ内に蓄積された映像データを特定するための特定情報が送信され、サーバから携帯端末に対して、特定情報に基づいて抽出及び送信された映像データが送信される。そして、その映像データが表示部に表示されるようになる。 With this configuration, the specific information for specifying the video data stored in the server is transmitted based on the position information and orientation (direction) information of the mobile terminal, and the server transmits the specific information to the mobile terminal. The video data extracted and transmitted based on the specific information is transmitted. Then, the video data is displayed on the display unit.
本発明によると、携帯端末の位置情報と姿勢(方向)情報とに基づいてサーバから抽出・送信された映像データが携帯端末の表示部に表示されるため、表示部の画面上で、壁や障害物等の向こう側にある景色を観賞することができるようになる。 According to the present invention, the video data extracted and transmitted from the server based on the position information and orientation (direction) information of the mobile terminal is displayed on the display unit of the mobile terminal. You will be able to appreciate the scenery behind the obstacles.
以下、発明を実施するための形態(以下、本例とも称する)について説明する。
[システムの全体構成例]
図1は、本例の表示システムの構成例を示すブロック図である。図1に示す表示システムは、本発明の携帯端末の一実施形態としての携帯電話端末10と、サーバ20とで構成される。携帯電話端末10とサーバ20とは、例えば、無線の通信網によって接続されている。
Hereinafter, a mode for carrying out the invention (hereinafter also referred to as this example) will be described.
[Example of overall system configuration]
FIG. 1 is a block diagram illustrating a configuration example of the display system of this example. The display system shown in FIG. 1 includes a
まず、携帯電話端末10の構成例から説明すると、携帯電話端末10には、操作入力部11と、表示部12と、通信部13と、制御部14と、位置検出部15と、姿勢検出部16と、記憶部17とが含まれる。
First, a configuration example of the
操作入力部11は、数字や記号等のダイヤルキーや各種機能キー等で構成され、ユーザからの操作入力を受け付ける。例えば本例の表示システムを実現する機能がアプリケーションとして携帯電話端末10に搭載されている場合には、そのアプリケーションを起動するための操作等が操作入力部11に対して行われる。
The
また、操作入力部11は、後述する表示対象物(以下、単に対象物とも称する)の種別の情報等をパラメータとして設定するためのユーザインタフェースとしても使用される。表示対象物を特定するためのパラメータとしては、対象物のライブ映像かビデオ映像かの選択情報や、対象物の種別(建築物か風景か等)を特定する情報、ビデオ映像の撮影された時間、季節の情報、表示対象物までの距離の情報等がある。
The
表示部12は、例えば液晶パネルや有機EL(Electro Luminescence)パネル等で構成され、ユーザからの操作入力部11への操作入力内容に基づいて、電子メールの作成画面やウェブページ、障害物の向こう側の景色等を表示する。
The
通信部13は、サーバ20との通信を行う処理部であり、制御部14で生成される後述する対象物特定情報を含む映像データ取得要求のサーバ20への送信や、サーバ20から送信される映像データの受信等を行う。
The
制御部14は、例えばCPU(Central Processing Unit)等で構成され、携帯電話端末10を構成する各部の制御を行う。具体的には、操作入力部11への操作入力情報や位置検出部15での位置検出情報、姿勢検出部16での姿勢検出情報に基づいて、表示部12に表示させるための表示対象物を特定するための情報(以下、対象物特定情報と称する)を生成する処理等を行う。対象物特定情報の生成の詳細については、次の図2を参照して後述する。また制御部14では、図示せぬRTC(Real Time Clock)等により、現在の日付情報や時刻情報の取得も行う。
The
位置検出部15は、GPS(Global Positioning System)や地磁気センサ等で構成され、携帯電話端末10の位置する位置情報を検出する。携帯電話端末10の位置情報としては、GPSによって携帯電話端末10の位置する緯度情報、経度情報、高さ(標高)情報が検出され、地磁気センサによって携帯電話端末10の向いている方向(水平方向における左右方向)の情報等が検出される。姿勢検出部16は、ジャイロセンサ等で構成され、携帯電話端末10の上下方向の角度情報(仰角情報)を検出する。
The
なお、本例では携帯電話端末10が向いている方向の情報を、地磁気センサを用いて検出する構成を例に挙げているが、これに限定されるものではない。例えばジャイロセンサ等によって方向の情報を検出するようにしてもよい。この場合は、アプリケーションの初回起動時等に、携帯電話端末10の実際の向き情報と「北」等の特定の方位とを対応付ける初期化処理等を行うようにし、以降は対応付けによって得られた基準点からのズレ量を、方位情報として取得するようにすればよい。
In this example, the configuration in which the information in the direction in which the
記憶部17は、ROM(Read Only Memory)やRAM(Random Access Memory)で構成され、本例の携帯電話端末10を動作させるために必要なプログラムや、ユーザにより生成又は取得されたデータ等が記憶される。また記憶部17には、サーバ20から送信された映像データ等も保存される。
The storage unit 17 is configured by a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores a program necessary for operating the
なお、図1においては、マイクロフォンやスピーカ、これらを制御する音声処理部の図示を省略しているが、本例の携帯電話端末10は、これらの機能も備えているものとする。
In FIG. 1, illustration of a microphone, a speaker, and an audio processing unit that controls them is omitted, but the
次に、同じく図1を参照して、サーバ20の構成例について説明する。サーバ20は、Webサーバ機能部21と、データ制御部22と、映像データベース23とで構成される。Webサーバ機能部21は、クライアントとしての携帯電話端末10からの映像データ取得要求に応じて、データ制御部22によって映像データベース23から抽出された映像データを、携帯電話端末10に送信する。ここでいう映像データ取得要求には、前述した対象物特定情報が含まれている。
Next, a configuration example of the server 20 will be described with reference to FIG. The server 20 includes a web
データ制御部22には、映像データベース23とカメラC1〜カメラC3が接続されている。そして、データ制御部22は、操作入力部11に入力されるユーザからの操作内容に基づいて、映像データベース23に記憶された映像データ又はカメラC1〜カメラC3によりリアルタイムに得られる映像のいずれかを取得してWebサーバ機能部21に送信する。
A
映像データベース23は、著名な山や海等の風景に関する映像データや、著名な建物等の建築物に関する映像データ等が記憶されている。これらの映像データとしては、カメラC1〜カメラC3によって撮影されたものが蓄積される。すべての映像データには、パラメータとして緯度情報、経度情報、高さ情報、方向情報が設定されており、携帯電話端末10から映像データ取得要求が送信された場合に、その要求に基づいて映像データベース23の中から特定の映像データが抽出される。映像データベース23の詳細については、図3を参照して後述する。
The
カメラC1〜カメラC3は、携帯電話端末10の表示部12上に表示させる風景や建築物等を撮影するためのカメラである。事前に撮り貯めた映像を映像データベース23に出力したり、携帯電話端末10からの要求に応じてリアルタイムで撮影中の映像を出力する。
Cameras C <b> 1 to C <b> 3 are cameras for photographing a landscape, a building, or the like displayed on the
本例では、例としてカメラC1〜カメラC3の3台のカメラを図示してあるが、実際にはもっと多くのカメラを使用することが想定される。例えば、有名な建築物Laの周囲360°を、東西南北の各方面から撮影したい場合は、カメラは各方位に対応して4台必要となる。あるいは、30°の間隔で360°の映像を撮影したい場合には、12台のカメラが必要となる。 In the present example, three cameras C1 to C3 are illustrated as an example, but it is assumed that more cameras are actually used. For example, when it is desired to photograph 360 degrees around a famous building La from each direction of east, west, south, and north, four cameras are required corresponding to each direction. Alternatively, if it is desired to shoot 360 ° images at 30 ° intervals, 12 cameras are required.
カメラC1〜カメラC3のそれぞれには、各カメラCの緯度情報、経度情報、高さ情報、方向情報がパラメータとして設定してあり、これらのパラメータは、カメラC1〜カメラC3によって撮影された各映像データの属性情報として、映像データベース23内に記憶される。また、携帯電話端末10より、リアルタイムで取得された映像の取得要求が送信された場合には、これらのパラメータに基づいて特定のカメラCが選択される。
In each of the cameras C1 to C3, latitude information, longitude information, height information, and direction information of each camera C are set as parameters, and these parameters are the images captured by the cameras C1 to C3. It is stored in the
次に、図2を参照して、携帯電話端末10の制御部14による対象物特定情報生成処理の例について説明する。図2の左側には、携帯電話端末10で取得される情報の例を示してあり、図2の右側には、携帯電話端末10で取得された各種情報に基づいて制御部14で生成される対象物特定情報の例を示してある。
Next, with reference to FIG. 2, an example of the object specifying information generation process by the
図2の左側に示すように、携帯電話端末10では、携帯電話端末10の位置情報として、位置検出部15(図1参照)によって緯度情報、経度情報、高さ(高度)情報が取得される。また、操作入力部11に対する操作入力によって、携帯電話端末10から表示対象物までの距離が指定される。
As shown on the left side of FIG. 2, in the
携帯電話端末10から表示対象物までの距離とは、携帯電話端末10の表示部12の画面上に、携帯電話端末10が向いている方向にある風景や建築物のうち、どの位離れた位置にあるものを表示させるかを特定するための情報である。東京にいるユーザが、西南西の方向を向きながら、距離として500kmを指定した場合には、携帯電話端末10の表示部12上に京都の風景又は建築物を表示させることが可能となる。
The distance from the
また、姿勢検出部16によって、携帯電話端末10の向いている方向情報と、上下方向の向き情報である仰角情報が検出される。
Further, the
携帯電話端末10の制御部14では、このようにして得られた携帯電話端末10の位置情報、携帯電話端末10から対象物までの距離情報、携帯電話端末10の向き情報から、対象物の緯度、経度、高さ、方向を算出する。そして、算出して得られた結果に基づいて、図2の右側に示すように対象物特定情報を生成する。
The
また、携帯電話端末10においては、図2の左側に示すように、制御部14によって現在の日付及び時刻の情報(現在日時情報)が取得され、操作入力部11への操作入力内容によって、対象物の種別(風景か建築物か)が選択される。さらに、操作入力部11への操作入力内容によって、カメラC1〜カメラC3によってリアルタイムに撮影されている映像か、映像データベース23内に蓄積された映像のいずれかが選択される。
Further, in the
携帯電話端末10の制御部14では、現在日時情報から、対象物を特定するための時間情報、季節情報を生成し、選択された対象物の種別情報に基づいて、抽出すべき映像の種別を特定する情報を生成する。また、操作入力部11を通して選択されたリアルタイム映像又は蓄積映像の情報に基づいて、カメラC1〜カメラC3又は、映像データベース23内の蓄積映像を選択するための制御情報を生成する。
The
すなわち携帯電話端末10の制御部14においては、携帯電話端末10内の各部で取得された様々な情報に基づいて、表示部12の画面上に表示させる対象物を特定するための対象物特定情報が生成される。
That is, in the
次に、図3を参照して、サーバ20内の映像データベース23の構成例について説明する。映像データベース23では、映像の属性情報と、実際の映像データとを対応付けて管理している。
Next, a configuration example of the
映像の属性情報としては、映像中に写っている対象物の名称及び種別(建築物又は風景)と、その位置情報(緯度、経度、高さ)が設定されている。映像データは、方向別、時間別、季節別にそれぞれ異なるデータが用意されている。 As the attribute information of the video, the name and type (building or landscape) of the object shown in the video and its position information (latitude, longitude, height) are set. Different video data is prepared for each direction, time, and season.
図3に示した例では、「○○タワー」と名づけられた映像の位置情報として、緯度=XX°、経度=XX°、高さ=ZZmの情報が登録されている。また、種別情報として、映像が「風景」であることが記されている。 In the example illustrated in FIG. 3, information on latitude = XX °, longitude = XX °, and height = ZZm is registered as the position information of the video named “XX Tower”. In addition, as the type information, it is described that the video is “landscape”.
さらに、「○○タワー」という名称の映像の属性情報として、ライブ映像を示す情報と、予め撮影されたビデオ映像を示す情報とが、方向毎、時間毎、季節毎に登録されている。ライブ映像を示す情報としては、ライブ映像の撮影を行っているカメラの種類(カメラC1)が記述されている。予め撮影されたビデオ映像を示す情報としては、東・西・南・北の方向毎、朝・昼・夕方・夜の時間毎、春・夏・秋・冬の季節毎に、対応する映像の情報(ビデオV1−1〜ビデオV1−64)が記述されている。 Further, as the attribute information of the video named “XX Tower”, information indicating a live video and information indicating a pre-captured video video are registered for each direction, every time, and every season. As the information indicating the live video, the type of camera (camera C1) that is shooting the live video is described. Information that shows pre-captured video images includes the corresponding images for each direction of east, west, south, and north, every hour in the morning, noon, evening, and night, and each season in spring, summer, autumn, and winter. Information (video V1-1 to video V1-64) is described.
同様の属性情報が、「△△山」や、その他の景色を撮影した映像毎に用意されているものとする。 It is assumed that similar attribute information is prepared for each video image of “ΔΔ mountain” and other scenery.
携帯電話端末10から対象物特定情報が送信された場合は、このように構成された映像データベース23の中から、対象物特定情報中に記述された内容に合致するデータが抽出され、携帯電話端末10に送信される。
When the object specifying information is transmitted from the
[システムの動作例]
次に、図4を参照して、携帯電話端末10とサーバ20による表示システムの動作の例について説明する。まず、携帯電話端末10において、操作入力部11を介してアプリケーションを起動する操作を受け付けると(ステップS11)、続いて、同じく操作入力部11を通して、表示部12に表示させたい対象物の種別情報と、映像の種類情報(リアルタイム映像又は蓄積映像)の入力も受け付ける(ステップS12)。
[System operation example]
Next, an example of operation of the display system by the
次に、制御部14(図1参照)による制御に基づいて、位置検出部15と姿勢検出部16から、それぞれ携帯電話端末10の位置情報と向き情報が取得される(ステップS13)。そして、制御部14において、ステップS13で取得された位置情報と向き情報に基づいて、対象物の緯度、経度、高さ、方向の情報が生成される(ステップS14)。
Next, based on control by the control unit 14 (see FIG. 1), position information and orientation information of the
続いて、対象物の緯度、経度、高さ、方向の情報に加えて、対象物の種別情報と映像の種類情報も考慮して制御部14で生成された対象物特定情報が、映像データ取得要求として通信部13を通してサーバ20に送信される(ステップS15)。
Subsequently, in addition to the information on the latitude, longitude, height, and direction of the object, the object specifying information generated by the
対象物特定情報を含む映像データ取得要求を受信したサーバ20では、データ制御部22によって、受信した対象物特定情報に基づいて、映像データベース23(図1参照)から最適な映像データが抽出又は、対象物特定情報中で指定されるカメラCによる撮影映像が選択される(ステップS16)。そして、抽出又は選択された映像データが、Webサーバ機能部21によって携帯電話端末10に送信される(ステップS17)。
In the server 20 that has received the video data acquisition request including the object specifying information, the
ステップS17で送信された映像データを受信した携帯電話端末10では、受信した映像データが記憶部17(図1参照)に保存される(ステップS18)。続いて、記憶部17に保存された映像データが、制御部14の制御に基づいて表示部12の画面上に表示される(ステップS19)。次に、携帯電話端末10の位置情報や姿勢情報(向き情報)に変化があったか否かが判断され(ステップS20)、変化があった場合には、ステップS12に戻って処理が続けられる。
In the
携帯電話端末10の位置情報や姿勢情報(向き情報)に変化がなかった場合には、ユーザによるアプリケーション終了の操作を受け付けたか否かが判断される(ステップS21)。アプリケーション終了の操作を受け付けた場合には、処理は終了となる。アプリケーション終了の操作を受け付けていない場合には、ステップS20に戻って判断が続けられる。
If there is no change in the position information or orientation information (orientation information) of the
表示システムがこのように構成及び処理されることで、図5に示すように、ユーザUが四方を壁で囲まれた部屋の中等にいる場合にも、壁の向こう側にある携帯電話端末10を向けた方向の延長線上にある風景や建築物を、表示部12の画面上に表示させることができるようになる。図5に示した例では、ユーザUは、携帯電話端末10を方向Aaの方向に向けることで、方向Aaの先にある建築物Laを画面上で見ることができ、方向Abに向けることで建築物Lbを見ることができ、方向Acに向けることで風景Lcを見ることができるようになる。
By configuring and processing the display system in this way, as shown in FIG. 5, even when the user U is in a room surrounded by walls on all sides, the
[実施の形態による効果]
上述した実施の形態によれば、ユーザUは、部屋等の中にいれば本来見ることのできない風景を、携帯電話端末10の画面を通して見ることができるようになる。例えば、観光地に出向いたが悪天候により室外に出られない場合や、自宅から見えていた美しい景色が、新たな建築物が建造されたことにより見られなくなってしまった場合等に、携帯電話端末10を使用して、ユーザUが所望の景色を見ることができるようになる。
[Effects of the embodiment]
According to the above-described embodiment, the user U can see the scenery that cannot be seen originally in a room or the like through the screen of the
また、上述した実施の形態によれば、朝、昼、夕方、夜等の任意の時間をユーザが設定できるようにしてあるため、夜であるが故に見えない昼間の景色を、携帯電話端末10の画面上に表示させることができるようになる。逆に、昼間に夜景をみることも可能となる。
In addition, according to the above-described embodiment, since the user can set an arbitrary time such as morning, noon, evening, and night, the
また、上述した実施の形態によれば、表示部12に表示させたい対象物として風景と建築物とを選択することができるため、携帯電話端末10の画面上に、ユーザUが求める映像を適切に表示させることができる。
In addition, according to the above-described embodiment, since a landscape and a building can be selected as an object to be displayed on the
また、上述した実施の形態によれば、カメラC1〜カメラC3によりリアルタイムに撮影されている映像と、映像データベース23内に蓄積されている蓄積映像とを選択して取得できるため、ユーザUは好みの映像を選択して見ることができるようになる。例えば映像データベース23には、天候のよい時に撮影された絵として美しい風景又は建築物の映像データを蓄積しておくことで、ユーザUに、美しい風景と、現在撮影されている生の映像とのうち好みの映像を選択させることができる。
Further, according to the embodiment described above, the user U can select and acquire the video captured in real time by the cameras C1 to C3 and the stored video stored in the
また、上述した実施の形態によれば、操作入力部11を介して、携帯電話端末10から対象物までの距離を指定することができるため、カメラCのズーム(望遠)を行うような操作感で、ユーザUは、遠方の所望の建築物や風景を携帯電話端末10の画面に表示させることができる。
Further, according to the above-described embodiment, since the distance from the
また、上述した実施の形態によれば、X線やサーモグラフィの使用や、CGによる映像の生成等を行う必要なく、障害物の向こう側の建築物や風景を携帯電話端末10の画面上に表示させることができるため、携帯電話端末10の製造コストを低減することができる。
In addition, according to the above-described embodiment, it is not necessary to use X-rays or thermography, or to generate a video by CG, etc., and the building or landscape beyond the obstacle is displayed on the screen of the
なお、上述した実施の形態では、携帯端末を携帯電話端末10に適用した例を挙げたが、これに限定されるものではない。例えば、PDA(Personal Digital Assistants)や通信機能を有するゲーム機、同じく通信機能を有する音楽データ再生装置等の他の携帯端末に適用してもよい。もしくは、表示部12をゴーグルとして独立させた構成に適用してもよい。
In the above-described embodiment, an example in which the mobile terminal is applied to the
10…携帯電話端末、11…操作入力部、12…表示部、13…通信部、14…制御部、15…位置検出部、16…姿勢検出部、17…記憶部、20…サーバ、21…Webサーバ機能部機能部、22…データ制御部、23…映像データベース、C1〜C3…カメラ
DESCRIPTION OF
Claims (11)
前記サーバから送信された映像データを表示する表示部と、
当該携帯端末の位置情報を検出する位置検出部と、
当該携帯端末の向いている方向の情報を検出する姿勢検出部と、
前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報とに基づいて、前記サーバに対して所定の映像データを特定するための特定情報を生成し、前記通信部に出力するとともに、前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させる制御を行う制御部とを備えた、
携帯端末。 A communication unit that transmits and receives data to and from a server that stores a plurality of video data obtained by photographing a predetermined landscape or building;
A display unit for displaying video data transmitted from the server;
A position detector for detecting position information of the mobile terminal;
A posture detection unit that detects information of a direction in which the mobile terminal is facing;
Based on the position information detected by the position detection unit and the direction information detected by the posture detection unit, specific information for specifying predetermined video data to the server is generated, and the communication And a control unit that performs control to display the video data extracted and transmitted by the server based on the specific information on the display unit,
Mobile device.
請求項1記載の携帯端末。 The position information detected by the position detection unit includes latitude, longitude, and altitude information of the position where the mobile terminal is located, and the direction information detected by the posture detection unit is the horizontal information of the mobile terminal. The mobile terminal according to claim 1, comprising left and right orientation information in a direction and elevation angle information of the mobile terminal.
前記操作入力部からは、前記サーバに蓄積された映像データの種別を特定する種別特定情報が入力される
請求項2記載の携帯端末。 It has an operation input unit for inputting instructions from the user,
The portable terminal according to claim 2, wherein type specifying information for specifying a type of video data stored in the server is input from the operation input unit.
請求項3記載の携帯端末。 The mobile terminal according to claim 3, wherein distance specifying information for designating a distance between a position of a subject in the video data stored in the server and a position of the mobile terminal is input from the operation input unit. .
請求項4記載の携帯端末。 The control unit generates the specific information based on the position information detected by the position detection unit, the direction information detected by the posture detection unit, the type specifying information, and the distance specifying information. The mobile terminal according to claim 4.
請求項5記載の携帯端末。 The control unit describes, in the specific information, video data type specifying information for selecting either video data stored in the server or video shot by a camera connected to the server. Item 6. A portable terminal according to Item 5.
当該携帯端末の向いている方向の情報を検出するステップと、
前記検出された位置情報と、前記検出された方向の情報とに基づいて、所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバに対して、所定の映像データを特定するための特定情報を生成して送信するステップと、
前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させるステップとを含む
表示方法。 Detecting position information of the mobile terminal;
Detecting information on the direction in which the mobile terminal is facing;
Based on the detected position information and the information on the detected direction, predetermined video data is stored in a server that stores a plurality of video data obtained by photographing a predetermined landscape or building. Generating and transmitting specific information for identification;
And displaying the video data extracted and transmitted by the server based on the specific information on the display unit.
前記サーバから送信された映像データを表示する表示部と、
当該携帯端末の位置情報を検出する位置検出部と、
当該携帯端末の向いている方向の情報を検出する姿勢検出部と、
前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報とに基づいて、前記サーバに対して所定の映像データを特定するための特定情報を生成し、前記第1の通信部に出力するとともに、前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させる制御を行う第1の制御部とを有する携帯端末と、
前記携帯端末との間でデータの送受信を行う第2の通信部と、
前記映像データを蓄積する映像データ蓄積部と、
前記携帯端末から送信された特定情報に基づいて、前記映像データ蓄積部から特定の映像データを抽出して前記第2の通信部に出力する第2の制御部とを有するサーバとを備えた
表示システム。 A first communication unit that transmits and receives data to and from a server that stores a plurality of video data obtained by photographing a predetermined landscape or building;
A display unit for displaying video data transmitted from the server;
A position detector for detecting position information of the mobile terminal;
A posture detection unit that detects information of a direction in which the mobile terminal is facing;
Based on the position information detected by the position detection unit and the direction information detected by the posture detection unit, the server generates specific information for specifying predetermined video data to the server, and A portable terminal having a first control unit that outputs to the first communication unit and controls the display unit to display the video data extracted and transmitted by the server based on the specific information;
A second communication unit that transmits and receives data to and from the portable terminal;
A video data storage unit for storing the video data;
A server having a second control unit that extracts specific video data from the video data storage unit based on the specific information transmitted from the portable terminal and outputs the specific video data to the second communication unit. system.
請求項8記載の表示システム。 The display system according to claim 8, wherein the server is connected with a camera that captures video in real time.
請求項9記載の表示システム。 The said 2nd control part acquires the picked-up image by the said camera, and outputs to the said 2nd communication part, when the acquisition request | requirement of the picked-up image by a camera is transmitted from the said portable terminal. Display system.
前記携帯端末の第1の制御部では、前記映像データの属性情報を特定するための特定情報が生成される
請求項10記載の表示システム。 In the video data stored in the video data storage unit, the position information of the subject in the video data, the time information when the subject was shot, and the subject were shot as attribute information of the video data. Seasonal information and information on the subject type are defined,
The display system according to claim 10, wherein the first control unit of the mobile terminal generates specific information for specifying attribute information of the video data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186799A JP2011041020A (en) | 2009-08-11 | 2009-08-11 | Mobile terminal, display method, and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186799A JP2011041020A (en) | 2009-08-11 | 2009-08-11 | Mobile terminal, display method, and display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011041020A true JP2011041020A (en) | 2011-02-24 |
Family
ID=43768329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009186799A Withdrawn JP2011041020A (en) | 2009-08-11 | 2009-08-11 | Mobile terminal, display method, and display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011041020A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014235304A (en) * | 2013-05-31 | 2014-12-15 | 株式会社第一興商 | Background video display system |
CN110383322A (en) * | 2017-03-10 | 2019-10-25 | 洋马株式会社 | Production information display system |
-
2009
- 2009-08-11 JP JP2009186799A patent/JP2011041020A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014235304A (en) * | 2013-05-31 | 2014-12-15 | 株式会社第一興商 | Background video display system |
CN110383322A (en) * | 2017-03-10 | 2019-10-25 | 洋马株式会社 | Production information display system |
CN110383322B (en) * | 2017-03-10 | 2023-08-22 | 洋马动力科技有限公司 | Yield information display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7192923B2 (en) | Apparatus, method, program, system | |
US10586365B2 (en) | Server, user terminal, and service providing method, and control method thereof | |
JP6075066B2 (en) | Image management system, image management method, and program | |
KR100651508B1 (en) | Method for providing local information by augmented reality and local information service system therefor | |
US20180033208A1 (en) | Telelocation: location sharing for users in augmented and virtual reality environments | |
US20130128059A1 (en) | Method for supporting a user taking a photo with a mobile device | |
JP5920057B2 (en) | Transmission device, image sharing system, transmission method, and program | |
JP2017212510A (en) | Image management device, program, image management system, and information terminal | |
KR20110070210A (en) | Mobile terminal and method for providing augmented reality service using position-detecting sensor and direction-detecting sensor | |
US10102675B2 (en) | Method and technical equipment for determining a pose of a device | |
JP6064269B2 (en) | Information processing apparatus, information processing method, and program | |
JP6011117B2 (en) | Reception device, image sharing system, reception method, and program | |
JP6304300B2 (en) | Transmitting apparatus, communication method, program, and receiving apparatus | |
JP2010276364A (en) | Navigation information creation device, navigation system, navigation information creation method, and navigation method | |
JP2011041020A (en) | Mobile terminal, display method, and display system | |
JP5817012B2 (en) | Information processing apparatus, information processing method, and program | |
JP2010134881A (en) | System and method for displaying photographed image | |
EP3829159A1 (en) | Image capturing device, image communication system, and method for display control, and carrier means | |
JP5942637B2 (en) | Additional information management system, image sharing system, additional information management method, and program | |
JP2011174805A (en) | Information presenting system and program | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
US11700455B2 (en) | Image capturing device, image communication system, and method for display control | |
JP5670092B2 (en) | Topographic display system, portable terminal, topographic display method and program | |
JP6233451B2 (en) | Image sharing system, communication method and program | |
TW202129228A (en) | Method for appending image to panoramic image implemented by a servo terminal connected to a user terminal and a panoramic image database through a communication network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20121106 |