JP2011041020A - Mobile terminal, display method, and display system - Google Patents

Mobile terminal, display method, and display system Download PDF

Info

Publication number
JP2011041020A
JP2011041020A JP2009186799A JP2009186799A JP2011041020A JP 2011041020 A JP2011041020 A JP 2011041020A JP 2009186799 A JP2009186799 A JP 2009186799A JP 2009186799 A JP2009186799 A JP 2009186799A JP 2011041020 A JP2011041020 A JP 2011041020A
Authority
JP
Japan
Prior art keywords
information
video data
server
mobile terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009186799A
Other languages
Japanese (ja)
Inventor
Shinji Sato
伸二 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2009186799A priority Critical patent/JP2011041020A/en
Publication of JP2011041020A publication Critical patent/JP2011041020A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display a view located at the other side of a wall, an obstacle or the like on a display screen of a mobile terminal by a simple constitution. <P>SOLUTION: This mobile terminal includes: a communication part 13 for transmitting and receiving data between a server 20 having a plurality of video data obtained by imaging a predetermined landscape or building stored therein and itself; a display part 12 for displaying the video data transmitted from the server 20; a position detection part 15 for detecting the positional information of the mobile terminal 10; and an attitude detection part 16 for detecting the information of a direction which the mobile terminal 10 faces. The mobile terminal is configured to generate and transmit identification information for identifying predetermined video data to the server 20 based on the positional information detected by the position detection part 15 and the information of the direction detected by the attitude detection part 16, and display the picture data extracted and transmitted by the server 20 based on the identification information on the display part 12. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、携帯端末、表示方法及び表示システムに関し、特に室内あるいは障害物の陰等の場所において、室外あるいは障害物の向こう側の景色を携帯端末の画面上に表示させる技術に関する。   The present invention relates to a mobile terminal, a display method, and a display system, and more particularly, to a technique for displaying a scenery on the screen of a mobile terminal outdoors or behind an obstacle in a place such as indoors or behind an obstacle.

景色を携帯端末の表示画面上に表示するという観点においては、従来は、携帯端末に内蔵されたカメラによって撮影された映像を表示画面上に表示することが行われている。しかし、この手法においては、表示画面に表示できるのは携帯端末に内蔵されたカメラで捉えられる映像のみとなる。すなわち、携帯電話端末のユーザが室内あるいは障害物の陰に位置する場合には、室外あるいは障害物の向こう側にある景色をカメラは捉えることができないため、これらの景色を表示画面上に表示することはできない。   From the viewpoint of displaying a landscape on the display screen of a mobile terminal, conventionally, an image taken by a camera built in the mobile terminal has been displayed on the display screen. However, in this method, only images captured by a camera built in the portable terminal can be displayed on the display screen. That is, when the user of a mobile phone terminal is located indoors or behind an obstacle, the camera cannot capture the scenery outside the room or behind the obstacle, so these scenery are displayed on the display screen. It is not possible.

このような壁や障害物の向こう側の像を、X線やサーモグラフィを用いて得ることも技術的には可能である。また、壁や障害物の向こう側の像をCG(コンピュータグラフィックス)によって予め生成しておき、ゴーグル等の装置を通してCG画像を視聴可能とすることも行われている。例えば特許文献1には、CGにより作成した仮想立体映像情報を、ユーザがゴーグルを通して見ている現実空間内にはめ込んで表示させる技術が記載されている。   It is technically possible to obtain such an image of the other side of the wall or obstacle using X-rays or thermography. In addition, an image of the other side of a wall or an obstacle is generated in advance by CG (computer graphics) so that the CG image can be viewed through a device such as goggles. For example, Patent Literature 1 describes a technique for displaying virtual stereoscopic video information created by CG in a real space viewed by a user through goggles.

特開2000−155855号公報JP 2000-155855 A

しかしながら、上述したような従来の技術は、その実現にコストがかかってしまう、装置が大型化してしまう、人体に悪影響を与える場合もある、得られる画像の質があまり良くない等の問題がある。これにより、このような技術を携帯端末に組み込むことが困難であるという問題があった。   However, the conventional techniques as described above have problems such as high cost, realization of the apparatus, an adverse effect on the human body, and poor quality of the obtained image. . As a result, there is a problem that it is difficult to incorporate such a technique into a portable terminal.

本発明はかかる点に鑑みてなされたものであり、簡易な構成によって、壁や障害物等の向こう側にある景色を携帯端末の表示画面上に表示させることを目的とする。   The present invention has been made in view of this point, and an object of the present invention is to display a landscape on the other side of a wall or an obstacle on a display screen of a portable terminal with a simple configuration.

本発明の一側面の携帯端末は、所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う通信部と、サーバから送信された映像データを表示する表示部とを備える。また、当該携帯端末の位置情報を検出する位置検出部と、当該携帯端末の向いている方向の情報を検出する姿勢検出部を備える。そして、位置検出部で検出された位置情報と、姿勢検出部で検出された方向の情報とに基づいて、サーバに対して所定の映像データを特定するための特定情報を生成して通信部に出力するとともに、特定情報に基づいてサーバによって抽出及び送信された映像データを表示部に表示させるようにした。   A portable terminal according to one aspect of the present invention includes a communication unit that transmits and receives data to and from a server that stores a plurality of video data obtained by photographing a predetermined landscape or building, and a video transmitted from the server. And a display unit for displaying data. Moreover, the position detection part which detects the positional information on the said portable terminal, and the attitude | position detection part which detects the information of the direction which the said portable terminal faces are provided. Based on the position information detected by the position detection unit and the direction information detected by the posture detection unit, the communication unit generates specific information for specifying predetermined video data to the server. In addition to the output, the video data extracted and transmitted by the server based on the specific information is displayed on the display unit.

このように構成したことで、携帯端末の位置情報と姿勢(方向)情報とに基づいて、サーバ内に蓄積された映像データを特定するための特定情報が送信され、サーバから携帯端末に対して、特定情報に基づいて抽出及び送信された映像データが送信される。そして、その映像データが表示部に表示されるようになる。   With this configuration, the specific information for specifying the video data stored in the server is transmitted based on the position information and orientation (direction) information of the mobile terminal, and the server transmits the specific information to the mobile terminal. The video data extracted and transmitted based on the specific information is transmitted. Then, the video data is displayed on the display unit.

本発明によると、携帯端末の位置情報と姿勢(方向)情報とに基づいてサーバから抽出・送信された映像データが携帯端末の表示部に表示されるため、表示部の画面上で、壁や障害物等の向こう側にある景色を観賞することができるようになる。   According to the present invention, the video data extracted and transmitted from the server based on the position information and orientation (direction) information of the mobile terminal is displayed on the display unit of the mobile terminal. You will be able to appreciate the scenery behind the obstacles.

本発明の一実施の形態によるシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the system by one embodiment of this invention. 本発明の一実施の形態による携帯電話端末における送信データの生成例を示す説明図である。It is explanatory drawing which shows the production | generation example of the transmission data in the mobile telephone terminal by one embodiment of this invention. 本発明の一実施の形態による映像データベースサーバの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the video database server by one embodiment of this invention. 本発明の一実施の形態による携帯電話端末とサーバとにおける動作の例を示すフローチャートである。It is a flowchart which shows the example of operation | movement in the mobile telephone terminal and server by one embodiment of this invention. 本発明の一実施の形態によるシステム概要の例を示す説明図である。It is explanatory drawing which shows the example of the system outline | summary by one embodiment of this invention.

以下、発明を実施するための形態(以下、本例とも称する)について説明する。
[システムの全体構成例]
図1は、本例の表示システムの構成例を示すブロック図である。図1に示す表示システムは、本発明の携帯端末の一実施形態としての携帯電話端末10と、サーバ20とで構成される。携帯電話端末10とサーバ20とは、例えば、無線の通信網によって接続されている。
Hereinafter, a mode for carrying out the invention (hereinafter also referred to as this example) will be described.
[Example of overall system configuration]
FIG. 1 is a block diagram illustrating a configuration example of the display system of this example. The display system shown in FIG. 1 includes a mobile phone terminal 10 as an embodiment of the mobile terminal of the present invention and a server 20. The mobile phone terminal 10 and the server 20 are connected by, for example, a wireless communication network.

まず、携帯電話端末10の構成例から説明すると、携帯電話端末10には、操作入力部11と、表示部12と、通信部13と、制御部14と、位置検出部15と、姿勢検出部16と、記憶部17とが含まれる。   First, a configuration example of the mobile phone terminal 10 will be described. The mobile phone terminal 10 includes an operation input unit 11, a display unit 12, a communication unit 13, a control unit 14, a position detection unit 15, and an attitude detection unit. 16 and a storage unit 17 are included.

操作入力部11は、数字や記号等のダイヤルキーや各種機能キー等で構成され、ユーザからの操作入力を受け付ける。例えば本例の表示システムを実現する機能がアプリケーションとして携帯電話端末10に搭載されている場合には、そのアプリケーションを起動するための操作等が操作入力部11に対して行われる。   The operation input unit 11 includes dial keys such as numbers and symbols, various function keys, and the like, and receives operation inputs from the user. For example, when the function for realizing the display system of this example is installed in the mobile phone terminal 10 as an application, an operation for starting the application is performed on the operation input unit 11.

また、操作入力部11は、後述する表示対象物(以下、単に対象物とも称する)の種別の情報等をパラメータとして設定するためのユーザインタフェースとしても使用される。表示対象物を特定するためのパラメータとしては、対象物のライブ映像かビデオ映像かの選択情報や、対象物の種別(建築物か風景か等)を特定する情報、ビデオ映像の撮影された時間、季節の情報、表示対象物までの距離の情報等がある。   The operation input unit 11 is also used as a user interface for setting, as a parameter, information on the type of a display object (hereinafter also simply referred to as an object), which will be described later. Parameters for specifying the display object include selection information for live video or video image of the object, information for specifying the type of the object (such as building or landscape), and time when the video image was taken , Information on the season, information on the distance to the display object, and the like.

表示部12は、例えば液晶パネルや有機EL(Electro Luminescence)パネル等で構成され、ユーザからの操作入力部11への操作入力内容に基づいて、電子メールの作成画面やウェブページ、障害物の向こう側の景色等を表示する。   The display unit 12 includes, for example, a liquid crystal panel, an organic EL (Electro Luminescence) panel, and the like. Based on the operation input content from the user to the operation input unit 11, an e-mail creation screen, a web page, and the other side of the obstacle Displays the scenery on the side.

通信部13は、サーバ20との通信を行う処理部であり、制御部14で生成される後述する対象物特定情報を含む映像データ取得要求のサーバ20への送信や、サーバ20から送信される映像データの受信等を行う。   The communication unit 13 is a processing unit that communicates with the server 20. The communication unit 13 transmits a video data acquisition request including target identification information (described later) generated by the control unit 14 to the server 20 or is transmitted from the server 20. Receive video data.

制御部14は、例えばCPU(Central Processing Unit)等で構成され、携帯電話端末10を構成する各部の制御を行う。具体的には、操作入力部11への操作入力情報や位置検出部15での位置検出情報、姿勢検出部16での姿勢検出情報に基づいて、表示部12に表示させるための表示対象物を特定するための情報(以下、対象物特定情報と称する)を生成する処理等を行う。対象物特定情報の生成の詳細については、次の図2を参照して後述する。また制御部14では、図示せぬRTC(Real Time Clock)等により、現在の日付情報や時刻情報の取得も行う。   The control unit 14 is configured by, for example, a CPU (Central Processing Unit) and the like, and controls each unit configuring the mobile phone terminal 10. Specifically, based on the operation input information to the operation input unit 11, the position detection information in the position detection unit 15, and the posture detection information in the posture detection unit 16, display objects to be displayed on the display unit 12 are displayed. A process of generating information for specifying (hereinafter referred to as object specifying information) is performed. Details of generation of the object specifying information will be described later with reference to FIG. The control unit 14 also acquires current date information and time information by an RTC (Real Time Clock) not shown.

位置検出部15は、GPS(Global Positioning System)や地磁気センサ等で構成され、携帯電話端末10の位置する位置情報を検出する。携帯電話端末10の位置情報としては、GPSによって携帯電話端末10の位置する緯度情報、経度情報、高さ(標高)情報が検出され、地磁気センサによって携帯電話端末10の向いている方向(水平方向における左右方向)の情報等が検出される。姿勢検出部16は、ジャイロセンサ等で構成され、携帯電話端末10の上下方向の角度情報(仰角情報)を検出する。   The position detection unit 15 is configured by a GPS (Global Positioning System), a geomagnetic sensor, or the like, and detects position information where the mobile phone terminal 10 is located. As position information of the mobile phone terminal 10, latitude information, longitude information, and height (elevation) information where the mobile phone terminal 10 is located are detected by GPS, and a direction (horizontal direction) in which the mobile phone terminal 10 faces by a geomagnetic sensor. Information in the left and right direction) is detected. The posture detection unit 16 includes a gyro sensor or the like, and detects angle information (elevation angle information) in the vertical direction of the mobile phone terminal 10.

なお、本例では携帯電話端末10が向いている方向の情報を、地磁気センサを用いて検出する構成を例に挙げているが、これに限定されるものではない。例えばジャイロセンサ等によって方向の情報を検出するようにしてもよい。この場合は、アプリケーションの初回起動時等に、携帯電話端末10の実際の向き情報と「北」等の特定の方位とを対応付ける初期化処理等を行うようにし、以降は対応付けによって得られた基準点からのズレ量を、方位情報として取得するようにすればよい。   In this example, the configuration in which the information in the direction in which the mobile phone terminal 10 is facing is detected using a geomagnetic sensor is taken as an example, but the present invention is not limited to this. For example, direction information may be detected by a gyro sensor or the like. In this case, when the application is started for the first time, an initialization process for associating the actual orientation information of the mobile phone terminal 10 with a specific direction such as “north” is performed, and thereafter obtained by association What is necessary is just to acquire the deviation | shift amount from a reference point as azimuth | direction information.

記憶部17は、ROM(Read Only Memory)やRAM(Random Access Memory)で構成され、本例の携帯電話端末10を動作させるために必要なプログラムや、ユーザにより生成又は取得されたデータ等が記憶される。また記憶部17には、サーバ20から送信された映像データ等も保存される。   The storage unit 17 is configured by a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores a program necessary for operating the mobile phone terminal 10 of this example, data generated or acquired by the user, and the like. Is done. The storage unit 17 also stores video data transmitted from the server 20.

なお、図1においては、マイクロフォンやスピーカ、これらを制御する音声処理部の図示を省略しているが、本例の携帯電話端末10は、これらの機能も備えているものとする。   In FIG. 1, illustration of a microphone, a speaker, and an audio processing unit that controls them is omitted, but the mobile phone terminal 10 of this example also has these functions.

次に、同じく図1を参照して、サーバ20の構成例について説明する。サーバ20は、Webサーバ機能部21と、データ制御部22と、映像データベース23とで構成される。Webサーバ機能部21は、クライアントとしての携帯電話端末10からの映像データ取得要求に応じて、データ制御部22によって映像データベース23から抽出された映像データを、携帯電話端末10に送信する。ここでいう映像データ取得要求には、前述した対象物特定情報が含まれている。   Next, a configuration example of the server 20 will be described with reference to FIG. The server 20 includes a web server function unit 21, a data control unit 22, and a video database 23. The Web server function unit 21 transmits the video data extracted from the video database 23 by the data control unit 22 to the mobile phone terminal 10 in response to a video data acquisition request from the mobile phone terminal 10 as a client. The video data acquisition request here includes the object specifying information described above.

データ制御部22には、映像データベース23とカメラC1〜カメラC3が接続されている。そして、データ制御部22は、操作入力部11に入力されるユーザからの操作内容に基づいて、映像データベース23に記憶された映像データ又はカメラC1〜カメラC3によりリアルタイムに得られる映像のいずれかを取得してWebサーバ機能部21に送信する。   A video database 23 and cameras C1 to C3 are connected to the data control unit 22. Then, the data control unit 22 selects either the video data stored in the video database 23 or the video obtained in real time by the cameras C1 to C3 based on the operation content from the user input to the operation input unit 11. Obtain and transmit to the Web server function unit 21.

映像データベース23は、著名な山や海等の風景に関する映像データや、著名な建物等の建築物に関する映像データ等が記憶されている。これらの映像データとしては、カメラC1〜カメラC3によって撮影されたものが蓄積される。すべての映像データには、パラメータとして緯度情報、経度情報、高さ情報、方向情報が設定されており、携帯電話端末10から映像データ取得要求が送信された場合に、その要求に基づいて映像データベース23の中から特定の映像データが抽出される。映像データベース23の詳細については、図3を参照して後述する。   The video database 23 stores video data related to landscapes such as famous mountains and seas, video data related to buildings such as famous buildings, and the like. As these video data, what was image | photographed with the cameras C1-C3 is accumulate | stored. For all video data, latitude information, longitude information, height information, and direction information are set as parameters. When a video data acquisition request is transmitted from the mobile phone terminal 10, the video database is based on the request. Specific video data is extracted from 23. Details of the video database 23 will be described later with reference to FIG.

カメラC1〜カメラC3は、携帯電話端末10の表示部12上に表示させる風景や建築物等を撮影するためのカメラである。事前に撮り貯めた映像を映像データベース23に出力したり、携帯電話端末10からの要求に応じてリアルタイムで撮影中の映像を出力する。   Cameras C <b> 1 to C <b> 3 are cameras for photographing a landscape, a building, or the like displayed on the display unit 12 of the mobile phone terminal 10. The video taken and stored in advance is output to the video database 23, or the video currently being shot is output in real time in response to a request from the mobile phone terminal 10.

本例では、例としてカメラC1〜カメラC3の3台のカメラを図示してあるが、実際にはもっと多くのカメラを使用することが想定される。例えば、有名な建築物Laの周囲360°を、東西南北の各方面から撮影したい場合は、カメラは各方位に対応して4台必要となる。あるいは、30°の間隔で360°の映像を撮影したい場合には、12台のカメラが必要となる。   In the present example, three cameras C1 to C3 are illustrated as an example, but it is assumed that more cameras are actually used. For example, when it is desired to photograph 360 degrees around a famous building La from each direction of east, west, south, and north, four cameras are required corresponding to each direction. Alternatively, if it is desired to shoot 360 ° images at 30 ° intervals, 12 cameras are required.

カメラC1〜カメラC3のそれぞれには、各カメラCの緯度情報、経度情報、高さ情報、方向情報がパラメータとして設定してあり、これらのパラメータは、カメラC1〜カメラC3によって撮影された各映像データの属性情報として、映像データベース23内に記憶される。また、携帯電話端末10より、リアルタイムで取得された映像の取得要求が送信された場合には、これらのパラメータに基づいて特定のカメラCが選択される。   In each of the cameras C1 to C3, latitude information, longitude information, height information, and direction information of each camera C are set as parameters, and these parameters are the images captured by the cameras C1 to C3. It is stored in the video database 23 as data attribute information. In addition, when a request for acquiring a video acquired in real time is transmitted from the mobile phone terminal 10, a specific camera C is selected based on these parameters.

次に、図2を参照して、携帯電話端末10の制御部14による対象物特定情報生成処理の例について説明する。図2の左側には、携帯電話端末10で取得される情報の例を示してあり、図2の右側には、携帯電話端末10で取得された各種情報に基づいて制御部14で生成される対象物特定情報の例を示してある。   Next, with reference to FIG. 2, an example of the object specifying information generation process by the control unit 14 of the mobile phone terminal 10 will be described. An example of information acquired by the mobile phone terminal 10 is shown on the left side of FIG. 2, and the control unit 14 generates the information on the right side of FIG. 2 based on various information acquired by the mobile phone terminal 10. An example of the object specifying information is shown.

図2の左側に示すように、携帯電話端末10では、携帯電話端末10の位置情報として、位置検出部15(図1参照)によって緯度情報、経度情報、高さ(高度)情報が取得される。また、操作入力部11に対する操作入力によって、携帯電話端末10から表示対象物までの距離が指定される。   As shown on the left side of FIG. 2, in the mobile phone terminal 10, latitude information, longitude information, and height (altitude) information are acquired as position information of the mobile phone terminal 10 by the position detection unit 15 (see FIG. 1). . Further, the distance from the mobile phone terminal 10 to the display object is designated by an operation input to the operation input unit 11.

携帯電話端末10から表示対象物までの距離とは、携帯電話端末10の表示部12の画面上に、携帯電話端末10が向いている方向にある風景や建築物のうち、どの位離れた位置にあるものを表示させるかを特定するための情報である。東京にいるユーザが、西南西の方向を向きながら、距離として500kmを指定した場合には、携帯電話端末10の表示部12上に京都の風景又は建築物を表示させることが可能となる。   The distance from the mobile phone terminal 10 to the display object is the distance on the screen of the display unit 12 of the mobile phone terminal 10 in the landscape or building in the direction in which the mobile phone terminal 10 is facing. It is information for specifying whether to display what is in. When a user in Tokyo specifies 500 km as the distance while facing the west-southwest direction, it is possible to display a Kyoto landscape or a building on the display unit 12 of the mobile phone terminal 10.

また、姿勢検出部16によって、携帯電話端末10の向いている方向情報と、上下方向の向き情報である仰角情報が検出される。   Further, the orientation detection unit 16 detects the direction information of the mobile phone terminal 10 and the elevation angle information which is the vertical direction information.

携帯電話端末10の制御部14では、このようにして得られた携帯電話端末10の位置情報、携帯電話端末10から対象物までの距離情報、携帯電話端末10の向き情報から、対象物の緯度、経度、高さ、方向を算出する。そして、算出して得られた結果に基づいて、図2の右側に示すように対象物特定情報を生成する。   The control unit 14 of the mobile phone terminal 10 calculates the latitude of the target object from the position information of the mobile phone terminal 10 thus obtained, the distance information from the mobile phone terminal 10 to the target object, and the orientation information of the mobile phone terminal 10. Calculate longitude, height, and direction. And based on the result obtained by calculation, object specific information is produced | generated as shown on the right side of FIG.

また、携帯電話端末10においては、図2の左側に示すように、制御部14によって現在の日付及び時刻の情報(現在日時情報)が取得され、操作入力部11への操作入力内容によって、対象物の種別(風景か建築物か)が選択される。さらに、操作入力部11への操作入力内容によって、カメラC1〜カメラC3によってリアルタイムに撮影されている映像か、映像データベース23内に蓄積された映像のいずれかが選択される。   Further, in the mobile phone terminal 10, as shown on the left side of FIG. 2, information on the current date and time (current date information) is acquired by the control unit 14, and depending on the operation input content to the operation input unit 11, The type of object (landscape or building) is selected. Furthermore, depending on the content of the operation input to the operation input unit 11, either an image captured in real time by the cameras C <b> 1 to C <b> 3 or an image stored in the image database 23 is selected.

携帯電話端末10の制御部14では、現在日時情報から、対象物を特定するための時間情報、季節情報を生成し、選択された対象物の種別情報に基づいて、抽出すべき映像の種別を特定する情報を生成する。また、操作入力部11を通して選択されたリアルタイム映像又は蓄積映像の情報に基づいて、カメラC1〜カメラC3又は、映像データベース23内の蓄積映像を選択するための制御情報を生成する。   The control unit 14 of the mobile phone terminal 10 generates time information and season information for specifying the object from the current date and time information, and determines the type of video to be extracted based on the type information of the selected object. Generate information to identify. Further, control information for selecting the stored video in the camera C1 to the camera C3 or the video database 23 is generated based on the information of the real-time video or the stored video selected through the operation input unit 11.

すなわち携帯電話端末10の制御部14においては、携帯電話端末10内の各部で取得された様々な情報に基づいて、表示部12の画面上に表示させる対象物を特定するための対象物特定情報が生成される。   That is, in the control unit 14 of the mobile phone terminal 10, object specifying information for specifying an object to be displayed on the screen of the display unit 12 based on various information acquired by each unit in the mobile phone terminal 10. Is generated.

次に、図3を参照して、サーバ20内の映像データベース23の構成例について説明する。映像データベース23では、映像の属性情報と、実際の映像データとを対応付けて管理している。   Next, a configuration example of the video database 23 in the server 20 will be described with reference to FIG. The video database 23 manages video attribute information and actual video data in association with each other.

映像の属性情報としては、映像中に写っている対象物の名称及び種別(建築物又は風景)と、その位置情報(緯度、経度、高さ)が設定されている。映像データは、方向別、時間別、季節別にそれぞれ異なるデータが用意されている。   As the attribute information of the video, the name and type (building or landscape) of the object shown in the video and its position information (latitude, longitude, height) are set. Different video data is prepared for each direction, time, and season.

図3に示した例では、「○○タワー」と名づけられた映像の位置情報として、緯度=XX°、経度=XX°、高さ=ZZmの情報が登録されている。また、種別情報として、映像が「風景」であることが記されている。   In the example illustrated in FIG. 3, information on latitude = XX °, longitude = XX °, and height = ZZm is registered as the position information of the video named “XX Tower”. In addition, as the type information, it is described that the video is “landscape”.

さらに、「○○タワー」という名称の映像の属性情報として、ライブ映像を示す情報と、予め撮影されたビデオ映像を示す情報とが、方向毎、時間毎、季節毎に登録されている。ライブ映像を示す情報としては、ライブ映像の撮影を行っているカメラの種類(カメラC1)が記述されている。予め撮影されたビデオ映像を示す情報としては、東・西・南・北の方向毎、朝・昼・夕方・夜の時間毎、春・夏・秋・冬の季節毎に、対応する映像の情報(ビデオV1−1〜ビデオV1−64)が記述されている。   Further, as the attribute information of the video named “XX Tower”, information indicating a live video and information indicating a pre-captured video video are registered for each direction, every time, and every season. As the information indicating the live video, the type of camera (camera C1) that is shooting the live video is described. Information that shows pre-captured video images includes the corresponding images for each direction of east, west, south, and north, every hour in the morning, noon, evening, and night, and each season in spring, summer, autumn, and winter. Information (video V1-1 to video V1-64) is described.

同様の属性情報が、「△△山」や、その他の景色を撮影した映像毎に用意されているものとする。   It is assumed that similar attribute information is prepared for each video image of “ΔΔ mountain” and other scenery.

携帯電話端末10から対象物特定情報が送信された場合は、このように構成された映像データベース23の中から、対象物特定情報中に記述された内容に合致するデータが抽出され、携帯電話端末10に送信される。   When the object specifying information is transmitted from the mobile phone terminal 10, data matching the contents described in the object specifying information is extracted from the video database 23 configured as described above, and the mobile phone terminal 10 is transmitted.

[システムの動作例]
次に、図4を参照して、携帯電話端末10とサーバ20による表示システムの動作の例について説明する。まず、携帯電話端末10において、操作入力部11を介してアプリケーションを起動する操作を受け付けると(ステップS11)、続いて、同じく操作入力部11を通して、表示部12に表示させたい対象物の種別情報と、映像の種類情報(リアルタイム映像又は蓄積映像)の入力も受け付ける(ステップS12)。
[System operation example]
Next, an example of operation of the display system by the mobile phone terminal 10 and the server 20 will be described with reference to FIG. First, when an operation for starting an application is accepted via the operation input unit 11 in the mobile phone terminal 10 (step S11), the type information of the object to be displayed on the display unit 12 through the operation input unit 11 The input of video type information (real-time video or stored video) is also accepted (step S12).

次に、制御部14(図1参照)による制御に基づいて、位置検出部15と姿勢検出部16から、それぞれ携帯電話端末10の位置情報と向き情報が取得される(ステップS13)。そして、制御部14において、ステップS13で取得された位置情報と向き情報に基づいて、対象物の緯度、経度、高さ、方向の情報が生成される(ステップS14)。   Next, based on control by the control unit 14 (see FIG. 1), position information and orientation information of the mobile phone terminal 10 are respectively acquired from the position detection unit 15 and the posture detection unit 16 (step S13). And in the control part 14, the information of the latitude of the target object, the longitude, height, and a direction is produced | generated based on the positional information and orientation information which were acquired by step S13 (step S14).

続いて、対象物の緯度、経度、高さ、方向の情報に加えて、対象物の種別情報と映像の種類情報も考慮して制御部14で生成された対象物特定情報が、映像データ取得要求として通信部13を通してサーバ20に送信される(ステップS15)。   Subsequently, in addition to the information on the latitude, longitude, height, and direction of the object, the object specifying information generated by the control unit 14 in consideration of the object type information and the image type information is obtained as video data acquisition. The request is transmitted to the server 20 through the communication unit 13 (step S15).

対象物特定情報を含む映像データ取得要求を受信したサーバ20では、データ制御部22によって、受信した対象物特定情報に基づいて、映像データベース23(図1参照)から最適な映像データが抽出又は、対象物特定情報中で指定されるカメラCによる撮影映像が選択される(ステップS16)。そして、抽出又は選択された映像データが、Webサーバ機能部21によって携帯電話端末10に送信される(ステップS17)。   In the server 20 that has received the video data acquisition request including the object specifying information, the data control unit 22 extracts optimal video data from the video database 23 (see FIG. 1) based on the received object specifying information, or A video image taken by the camera C designated in the object specifying information is selected (step S16). Then, the extracted or selected video data is transmitted to the mobile phone terminal 10 by the Web server function unit 21 (step S17).

ステップS17で送信された映像データを受信した携帯電話端末10では、受信した映像データが記憶部17(図1参照)に保存される(ステップS18)。続いて、記憶部17に保存された映像データが、制御部14の制御に基づいて表示部12の画面上に表示される(ステップS19)。次に、携帯電話端末10の位置情報や姿勢情報(向き情報)に変化があったか否かが判断され(ステップS20)、変化があった場合には、ステップS12に戻って処理が続けられる。   In the mobile phone terminal 10 that has received the video data transmitted in step S17, the received video data is stored in the storage unit 17 (see FIG. 1) (step S18). Subsequently, the video data stored in the storage unit 17 is displayed on the screen of the display unit 12 based on the control of the control unit 14 (step S19). Next, it is determined whether or not there has been a change in the position information or orientation information (orientation information) of the mobile phone terminal 10 (step S20). If there has been a change, the process returns to step S12 to continue the process.

携帯電話端末10の位置情報や姿勢情報(向き情報)に変化がなかった場合には、ユーザによるアプリケーション終了の操作を受け付けたか否かが判断される(ステップS21)。アプリケーション終了の操作を受け付けた場合には、処理は終了となる。アプリケーション終了の操作を受け付けていない場合には、ステップS20に戻って判断が続けられる。   If there is no change in the position information or orientation information (orientation information) of the mobile phone terminal 10, it is determined whether or not an operation for ending the application by the user has been received (step S21). If an application termination operation is accepted, the process ends. If the operation for ending the application is not accepted, the process returns to step S20 and the determination is continued.

表示システムがこのように構成及び処理されることで、図5に示すように、ユーザUが四方を壁で囲まれた部屋の中等にいる場合にも、壁の向こう側にある携帯電話端末10を向けた方向の延長線上にある風景や建築物を、表示部12の画面上に表示させることができるようになる。図5に示した例では、ユーザUは、携帯電話端末10を方向Aaの方向に向けることで、方向Aaの先にある建築物Laを画面上で見ることができ、方向Abに向けることで建築物Lbを見ることができ、方向Acに向けることで風景Lcを見ることができるようになる。   By configuring and processing the display system in this way, as shown in FIG. 5, even when the user U is in a room surrounded by walls on all sides, the mobile phone terminal 10 located on the other side of the wall. It is possible to display a landscape or a building on the extended line in the direction facing the screen on the screen of the display unit 12. In the example shown in FIG. 5, the user U can see the building La ahead of the direction Aa on the screen by pointing the mobile phone terminal 10 in the direction Aa, and point it in the direction Ab. The building Lb can be seen, and the landscape Lc can be seen by facing the direction Ac.

[実施の形態による効果]
上述した実施の形態によれば、ユーザUは、部屋等の中にいれば本来見ることのできない風景を、携帯電話端末10の画面を通して見ることができるようになる。例えば、観光地に出向いたが悪天候により室外に出られない場合や、自宅から見えていた美しい景色が、新たな建築物が建造されたことにより見られなくなってしまった場合等に、携帯電話端末10を使用して、ユーザUが所望の景色を見ることができるようになる。
[Effects of the embodiment]
According to the above-described embodiment, the user U can see the scenery that cannot be seen originally in a room or the like through the screen of the mobile phone terminal 10. For example, if you go to a tourist spot but cannot go out of the room due to bad weather, or if the beautiful scenery that you could see from your home has disappeared due to the construction of a new building, etc. 10 allows the user U to see the desired scenery.

また、上述した実施の形態によれば、朝、昼、夕方、夜等の任意の時間をユーザが設定できるようにしてあるため、夜であるが故に見えない昼間の景色を、携帯電話端末10の画面上に表示させることができるようになる。逆に、昼間に夜景をみることも可能となる。   In addition, according to the above-described embodiment, since the user can set an arbitrary time such as morning, noon, evening, and night, the cellular phone terminal 10 can display a daytime scenery that cannot be seen because it is night. Can be displayed on the screen. Conversely, it is possible to see the night view during the day.

また、上述した実施の形態によれば、表示部12に表示させたい対象物として風景と建築物とを選択することができるため、携帯電話端末10の画面上に、ユーザUが求める映像を適切に表示させることができる。   In addition, according to the above-described embodiment, since a landscape and a building can be selected as an object to be displayed on the display unit 12, an image desired by the user U is appropriately displayed on the screen of the mobile phone terminal 10. Can be displayed.

また、上述した実施の形態によれば、カメラC1〜カメラC3によりリアルタイムに撮影されている映像と、映像データベース23内に蓄積されている蓄積映像とを選択して取得できるため、ユーザUは好みの映像を選択して見ることができるようになる。例えば映像データベース23には、天候のよい時に撮影された絵として美しい風景又は建築物の映像データを蓄積しておくことで、ユーザUに、美しい風景と、現在撮影されている生の映像とのうち好みの映像を選択させることができる。   Further, according to the embodiment described above, the user U can select and acquire the video captured in real time by the cameras C1 to C3 and the stored video stored in the video database 23. You will be able to select and view the video. For example, by storing video data of beautiful scenery or buildings as pictures taken when the weather is good in the video database 23, the user U can have the beautiful scenery and the live video currently being shot. You can select your favorite video.

また、上述した実施の形態によれば、操作入力部11を介して、携帯電話端末10から対象物までの距離を指定することができるため、カメラCのズーム(望遠)を行うような操作感で、ユーザUは、遠方の所望の建築物や風景を携帯電話端末10の画面に表示させることができる。   Further, according to the above-described embodiment, since the distance from the mobile phone terminal 10 to the object can be specified via the operation input unit 11, the operational feeling of performing the zoom (telephoto) of the camera C. Thus, the user U can display a desired distant building or landscape on the screen of the mobile phone terminal 10.

また、上述した実施の形態によれば、X線やサーモグラフィの使用や、CGによる映像の生成等を行う必要なく、障害物の向こう側の建築物や風景を携帯電話端末10の画面上に表示させることができるため、携帯電話端末10の製造コストを低減することができる。   In addition, according to the above-described embodiment, it is not necessary to use X-rays or thermography, or to generate a video by CG, etc., and the building or landscape beyond the obstacle is displayed on the screen of the mobile phone terminal 10. Therefore, the manufacturing cost of the mobile phone terminal 10 can be reduced.

なお、上述した実施の形態では、携帯端末を携帯電話端末10に適用した例を挙げたが、これに限定されるものではない。例えば、PDA(Personal Digital Assistants)や通信機能を有するゲーム機、同じく通信機能を有する音楽データ再生装置等の他の携帯端末に適用してもよい。もしくは、表示部12をゴーグルとして独立させた構成に適用してもよい。   In the above-described embodiment, an example in which the mobile terminal is applied to the mobile phone terminal 10 has been described. However, the present invention is not limited to this. For example, the present invention may be applied to other portable terminals such as a PDA (Personal Digital Assistants), a game machine having a communication function, and a music data reproducing apparatus having the same communication function. Or you may apply to the structure which made the display part 12 independent as goggles.

10…携帯電話端末、11…操作入力部、12…表示部、13…通信部、14…制御部、15…位置検出部、16…姿勢検出部、17…記憶部、20…サーバ、21…Webサーバ機能部機能部、22…データ制御部、23…映像データベース、C1〜C3…カメラ   DESCRIPTION OF SYMBOLS 10 ... Mobile telephone terminal, 11 ... Operation input part, 12 ... Display part, 13 ... Communication part, 14 ... Control part, 15 ... Position detection part, 16 ... Attitude detection part, 17 ... Memory | storage part, 20 ... Server, 21 ... Web server function unit function unit, 22 ... data control unit, 23 ... video database, C1 to C3 ... camera

Claims (11)

所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う通信部と、
前記サーバから送信された映像データを表示する表示部と、
当該携帯端末の位置情報を検出する位置検出部と、
当該携帯端末の向いている方向の情報を検出する姿勢検出部と、
前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報とに基づいて、前記サーバに対して所定の映像データを特定するための特定情報を生成し、前記通信部に出力するとともに、前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させる制御を行う制御部とを備えた、
携帯端末。
A communication unit that transmits and receives data to and from a server that stores a plurality of video data obtained by photographing a predetermined landscape or building;
A display unit for displaying video data transmitted from the server;
A position detector for detecting position information of the mobile terminal;
A posture detection unit that detects information of a direction in which the mobile terminal is facing;
Based on the position information detected by the position detection unit and the direction information detected by the posture detection unit, specific information for specifying predetermined video data to the server is generated, and the communication And a control unit that performs control to display the video data extracted and transmitted by the server based on the specific information on the display unit,
Mobile device.
前記位置検出部で検出される前記位置情報は、当該携帯端末が位置する位置の緯度、経度、高度の各情報よりなり、前記姿勢検出部で検出される方向の情報は、当該携帯端末の水平方向における左右の向き情報と、当該携帯端末の仰角情報よりなる
請求項1記載の携帯端末。
The position information detected by the position detection unit includes latitude, longitude, and altitude information of the position where the mobile terminal is located, and the direction information detected by the posture detection unit is the horizontal information of the mobile terminal. The mobile terminal according to claim 1, comprising left and right orientation information in a direction and elevation angle information of the mobile terminal.
ユーザからの指示が入力される操作入力部を備え、
前記操作入力部からは、前記サーバに蓄積された映像データの種別を特定する種別特定情報が入力される
請求項2記載の携帯端末。
It has an operation input unit for inputting instructions from the user,
The portable terminal according to claim 2, wherein type specifying information for specifying a type of video data stored in the server is input from the operation input unit.
前記操作入力部からは、前記サーバに蓄積された映像データ中の被写体の位置と、当該携帯端末の位置との間の距離とを指定する距離特定情報が入力される
請求項3記載の携帯端末。
The mobile terminal according to claim 3, wherein distance specifying information for designating a distance between a position of a subject in the video data stored in the server and a position of the mobile terminal is input from the operation input unit. .
前記制御部は、前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報と、前記種別特定情報と、前記距離特定情報とに基づいて、前記特定情報を生成する
請求項4記載の携帯端末。
The control unit generates the specific information based on the position information detected by the position detection unit, the direction information detected by the posture detection unit, the type specifying information, and the distance specifying information. The mobile terminal according to claim 4.
前記制御部は、前記特定情報の中に、前記サーバに蓄積された映像データと、前記サーバに接続されたカメラによる撮影映像とのいずれかを選択するための映像データ種類特定情報を記述する
請求項5記載の携帯端末。
The control unit describes, in the specific information, video data type specifying information for selecting either video data stored in the server or video shot by a camera connected to the server. Item 6. A portable terminal according to Item 5.
当該携帯端末の位置情報を検出するステップと、
当該携帯端末の向いている方向の情報を検出するステップと、
前記検出された位置情報と、前記検出された方向の情報とに基づいて、所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバに対して、所定の映像データを特定するための特定情報を生成して送信するステップと、
前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させるステップとを含む
表示方法。
Detecting position information of the mobile terminal;
Detecting information on the direction in which the mobile terminal is facing;
Based on the detected position information and the information on the detected direction, predetermined video data is stored in a server that stores a plurality of video data obtained by photographing a predetermined landscape or building. Generating and transmitting specific information for identification;
And displaying the video data extracted and transmitted by the server based on the specific information on the display unit.
所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う第1の通信部と、
前記サーバから送信された映像データを表示する表示部と、
当該携帯端末の位置情報を検出する位置検出部と、
当該携帯端末の向いている方向の情報を検出する姿勢検出部と、
前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報とに基づいて、前記サーバに対して所定の映像データを特定するための特定情報を生成し、前記第1の通信部に出力するとともに、前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させる制御を行う第1の制御部とを有する携帯端末と、
前記携帯端末との間でデータの送受信を行う第2の通信部と、
前記映像データを蓄積する映像データ蓄積部と、
前記携帯端末から送信された特定情報に基づいて、前記映像データ蓄積部から特定の映像データを抽出して前記第2の通信部に出力する第2の制御部とを有するサーバとを備えた
表示システム。
A first communication unit that transmits and receives data to and from a server that stores a plurality of video data obtained by photographing a predetermined landscape or building;
A display unit for displaying video data transmitted from the server;
A position detector for detecting position information of the mobile terminal;
A posture detection unit that detects information of a direction in which the mobile terminal is facing;
Based on the position information detected by the position detection unit and the direction information detected by the posture detection unit, the server generates specific information for specifying predetermined video data to the server, and A portable terminal having a first control unit that outputs to the first communication unit and controls the display unit to display the video data extracted and transmitted by the server based on the specific information;
A second communication unit that transmits and receives data to and from the portable terminal;
A video data storage unit for storing the video data;
A server having a second control unit that extracts specific video data from the video data storage unit based on the specific information transmitted from the portable terminal and outputs the specific video data to the second communication unit. system.
前記サーバには、リアルタイムで映像を撮影するカメラが接続される
請求項8記載の表示システム。
The display system according to claim 8, wherein the server is connected with a camera that captures video in real time.
前記第2の制御部は、前記携帯端末よりカメラによる撮影映像の取得要求が送信された場合には、前記カメラによる撮影映像を取得して前記第2の通信部に出力する
請求項9記載の表示システム。
The said 2nd control part acquires the picked-up image by the said camera, and outputs to the said 2nd communication part, when the acquisition request | requirement of the picked-up image by a camera is transmitted from the said portable terminal. Display system.
前記映像データ蓄積部に蓄積された映像データには、前記映像データの属性情報として、前記映像データ中の被写体の位置情報と、前記被写体が撮影された時間の情報と、前記被写体が撮影された季節の情報と、前記被写体の種別の情報とが定義され、
前記携帯端末の第1の制御部では、前記映像データの属性情報を特定するための特定情報が生成される
請求項10記載の表示システム。
In the video data stored in the video data storage unit, the position information of the subject in the video data, the time information when the subject was shot, and the subject were shot as attribute information of the video data. Seasonal information and information on the subject type are defined,
The display system according to claim 10, wherein the first control unit of the mobile terminal generates specific information for specifying attribute information of the video data.
JP2009186799A 2009-08-11 2009-08-11 Mobile terminal, display method, and display system Withdrawn JP2011041020A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009186799A JP2011041020A (en) 2009-08-11 2009-08-11 Mobile terminal, display method, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186799A JP2011041020A (en) 2009-08-11 2009-08-11 Mobile terminal, display method, and display system

Publications (1)

Publication Number Publication Date
JP2011041020A true JP2011041020A (en) 2011-02-24

Family

ID=43768329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186799A Withdrawn JP2011041020A (en) 2009-08-11 2009-08-11 Mobile terminal, display method, and display system

Country Status (1)

Country Link
JP (1) JP2011041020A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235304A (en) * 2013-05-31 2014-12-15 株式会社第一興商 Background video display system
CN110383322A (en) * 2017-03-10 2019-10-25 洋马株式会社 Production information display system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235304A (en) * 2013-05-31 2014-12-15 株式会社第一興商 Background video display system
CN110383322A (en) * 2017-03-10 2019-10-25 洋马株式会社 Production information display system
CN110383322B (en) * 2017-03-10 2023-08-22 洋马动力科技有限公司 Yield information display system

Similar Documents

Publication Publication Date Title
JP7192923B2 (en) Apparatus, method, program, system
US10586365B2 (en) Server, user terminal, and service providing method, and control method thereof
JP6075066B2 (en) Image management system, image management method, and program
KR100651508B1 (en) Method for providing local information by augmented reality and local information service system therefor
US20180033208A1 (en) Telelocation: location sharing for users in augmented and virtual reality environments
US20130128059A1 (en) Method for supporting a user taking a photo with a mobile device
JP5920057B2 (en) Transmission device, image sharing system, transmission method, and program
JP2017212510A (en) Image management device, program, image management system, and information terminal
KR20110070210A (en) Mobile terminal and method for providing augmented reality service using position-detecting sensor and direction-detecting sensor
US10102675B2 (en) Method and technical equipment for determining a pose of a device
JP6064269B2 (en) Information processing apparatus, information processing method, and program
JP6011117B2 (en) Reception device, image sharing system, reception method, and program
JP6304300B2 (en) Transmitting apparatus, communication method, program, and receiving apparatus
JP2010276364A (en) Navigation information creation device, navigation system, navigation information creation method, and navigation method
JP2011041020A (en) Mobile terminal, display method, and display system
JP5817012B2 (en) Information processing apparatus, information processing method, and program
JP2010134881A (en) System and method for displaying photographed image
EP3829159A1 (en) Image capturing device, image communication system, and method for display control, and carrier means
JP5942637B2 (en) Additional information management system, image sharing system, additional information management method, and program
JP2011174805A (en) Information presenting system and program
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
US11700455B2 (en) Image capturing device, image communication system, and method for display control
JP5670092B2 (en) Topographic display system, portable terminal, topographic display method and program
JP6233451B2 (en) Image sharing system, communication method and program
TW202129228A (en) Method for appending image to panoramic image implemented by a servo terminal connected to a user terminal and a panoramic image database through a communication network

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106