JP2011022662A - Portable telephone terminal and information processing system - Google Patents

Portable telephone terminal and information processing system Download PDF

Info

Publication number
JP2011022662A
JP2011022662A JP2009164908A JP2009164908A JP2011022662A JP 2011022662 A JP2011022662 A JP 2011022662A JP 2009164908 A JP2009164908 A JP 2009164908A JP 2009164908 A JP2009164908 A JP 2009164908A JP 2011022662 A JP2011022662 A JP 2011022662A
Authority
JP
Japan
Prior art keywords
information
unit
moving image
mobile phone
dimensional virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009164908A
Other languages
Japanese (ja)
Inventor
Akihiro Miura
明大 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Mobile Communications AB
Original Assignee
Sony Ericsson Mobile Communications AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications AB filed Critical Sony Ericsson Mobile Communications AB
Priority to JP2009164908A priority Critical patent/JP2011022662A/en
Publication of JP2011022662A publication Critical patent/JP2011022662A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To superimpose and display a three-dimensional virtual object having a proper size and a proper direction, at a proper position in a real space, when a user goes to a location where an object has been photographed. <P>SOLUTION: A portable telephone terminal has a camera unit having an optical lens to acquire light passing through the optical lens as an image and a display unit for displaying the image acquired with the camera unit; receives radio waves from a GPS satellite to acquire portable telephone positional information; transmits the portable telephone terminal positional information to an information processing server having an object table storing a three-dimensional virtual object as three-dimensional computer graphics generated, on the basis of a moving image, photographing positional information indicating a location where the moving image has been photographed and the spatial information related to the moving image, in association with each other; receives the three-dimensional virtual object matching the transmitted portable telephone positional information and the space information related to the moving image from the information processing server; and uses the relation between the space information related to the moving image and the space information related to an image to composite a three-dimensional virtual object for display. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、現実空間上に仮想のオブジェクトを重ねて表示する携帯電話端末及び情報処理システムに関する。   The present invention relates to a mobile phone terminal and an information processing system that display a virtual object superimposed on a real space.

現在、携帯電話端末は、高機能かつ多機能であり、GPS(Global Positioning System)や各種センサによる位置情報等の取得やカメラによる動画像の撮影が可能となっている。   At present, mobile phone terminals are highly functional and multifunctional, and it is possible to acquire position information by GPS (Global Positioning System) and various sensors and to capture moving images with a camera.

また、拡張現実(Augmented Reality:AR)という技術分野が近年発展している。ARとは、現実の環境の一部に付加情報としてバーチャルな物体(仮想オブジェクト)を電子情報として合成提示することをさす。   In addition, a technical field called augmented reality (AR) has been developed in recent years. AR means that a virtual object (virtual object) as additional information is synthesized and presented as electronic information in a part of the actual environment.

例えば、利用者が2次元の実写動画像を撮影し、その実写動画像に重畳して動きのあるオブジェクトの3次元CG(Computer Graphics)を表示することで、利用者の目の前にそのオブジェクトがあるように描写することができる(特許文献1)。   For example, when a user shoots a two-dimensional real moving image and displays a three-dimensional CG (Computer Graphics) of a moving object superimposed on the real moving image, the object is displayed in front of the user. (Patent Document 1).

また、撮影した動画から特定のオブジェクトを選択することで、その選択したオブジェクトを3次元コンピュータグラフィックス(3次元仮想オブジェクト)として描写する技術が実現されている(非特許文献1)。さらに、所定のオブジェクトを360度にわたって撮影した複数の画像から、3次元仮想オブジェクトを生成するサービスがweb上で行われている。   In addition, a technique for rendering a selected object as a three-dimensional computer graphic (three-dimensional virtual object) by selecting a specific object from the captured moving image is realized (Non-Patent Document 1). Further, a service for generating a three-dimensional virtual object from a plurality of images obtained by photographing a predetermined object over 360 degrees is performed on the web.

また、動画像からフレームごとに特徴点を抽出してその特徴点を時間軸方向に追跡することで平面を検出することにより、当該動画像の3次元空間の形状を算出することも可能となっている(非特許文献2)。   It is also possible to calculate the shape of the moving image in the three-dimensional space by extracting a feature point for each frame from the moving image and detecting the plane by tracking the feature point in the time axis direction. (Non-Patent Document 2).

特開平11−259672号公報JP-A-11-259672

Anton van den Hengel et al., “Video Trace”, ACM Transactions on Graphics, Vol26, No.3, Article86, Publication date: July 2007.Anton van den Hengel et al., “Video Trace”, ACM Transactions on Graphics, Vol26, No.3, Article86, Publication date: July 2007. Georg Klein et al., “Parallel Tracking and Mapping for Small AR Workspaces”, International Symposium on Mixed and Augmented Reality, 2007Georg Klein et al., “Parallel Tracking and Mapping for Small AR Workspaces”, International Symposium on Mixed and Augmented Reality, 2007

ところで、旅先などで撮影したオブジェクトが、破壊されたり、何らかの理由で消滅したりして、他の利用者が見ることができない状態になることがよくある。このような場合、他の旅行者が撮影した動画などにより、オブジェクトを見ることは可能であるが、旅行先の場所で見るオブジェクトと、過去に撮影された動画で見るオブジェクトとでは大きな差がある。例えば非特許文献1に記載の技術によって動画から3次元仮想オブジェクトを生成したとしても、その3次元仮想オブジェクトが現実空間のどこにあるか、どの方向からどのように見えるのか、といったことはわからない。そのため、オブジェクトを撮影しても、他の人とオブジェクトを撮影した場所で共有することができない、という問題があった。   By the way, it is often the case that an object photographed at a travel destination or the like is destroyed or disappears for some reason and cannot be seen by other users. In such a case, it is possible to see the object with a movie taken by another traveler, but there is a big difference between an object seen at a travel destination and an object seen in a movie taken in the past. . For example, even if a three-dimensional virtual object is generated from a moving image by the technique described in Non-Patent Document 1, it is not known where the three-dimensional virtual object is in the real space and how it looks from which direction. Therefore, there is a problem that even if an object is photographed, it cannot be shared with other people at the place where the object was photographed.

本発明は斯かる点に鑑みてなされたものであり、オブジェクトを撮影した場所に行った際に、現実空間上の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示する携帯電話装置及び情報処理サーバを提供することを目的とする。   The present invention has been made in view of such a point, and when the object is photographed, the three-dimensional virtual object is displayed in an appropriate size and direction at an appropriate position in the real space. An object is to provide a mobile phone device and an information processing server.

上記課題を解決するために、本発明の携帯電話端末は、光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、カメラ部で取得された画像を表示する表示部と、カメラ部で取得された画像から画像に係る空間情報を算出する制御部と、GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクト、動画像が撮影された場所を示す撮影位置情報及び動画像に係る空間情報が対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに、携帯電話位置情報を送信するとともに、送信した携帯電話位置情報に一致する撮影位置情報があった場合に情報処理サーバから送信される3次元仮想オブジェクト及び動画像に係る空間情報を受信するweb通信部と、動画像に係る空間情報と画像に係る空間情報との関係性を利用することにより、3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に3次元仮想オブジェクトを合成して表示させる描画部と、を備えるものである。   In order to solve the above problem, a mobile phone terminal of the present invention includes an optical lens, a camera unit that acquires light passing through the optical lens as an image, a display unit that displays an image acquired by the camera unit, A control unit that calculates spatial information related to an image from an image acquired by a camera unit, a GPS reception unit that receives radio waves from a GPS satellite and acquires mobile phone position information, and a three-dimensional generated based on a moving image An information processing server including a three-dimensional virtual object that is computer graphics of the above, an object table in which shooting position information indicating a place where a moving image is shot and spatial information related to the moving image are stored in association with each other is provided in a mobile phone The three-dimensional virtual object transmitted from the information processing server when there is shooting position information that matches the transmitted mobile phone position information. 3D virtual objects are synthesized on the display screen by using a web communication unit that receives spatial information relating to the image and the moving image, and the relationship between the spatial information relating to the moving image and the spatial information relating to the image. A drawing unit that determines a size, a direction, and a position, and combines and displays a three-dimensional virtual object at the determined position.

上記構成によれば、現在撮影中の画像に係る空間情報を算出できる。そのため、動画像に係る空間情報と画像に係る空間情報との関係性を利用することで、3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に3次元仮想オブジェクトを合成して表示させることができる。   According to the above configuration, it is possible to calculate the spatial information related to the image currently being shot. Therefore, by using the relationship between the spatial information related to the moving image and the spatial information related to the image, the size, direction and position when the three-dimensional virtual object is synthesized on the display screen are determined and determined. A three-dimensional virtual object can be synthesized and displayed at the position.

本発明の携帯電話端末及び情報処理サーバによれば、例えば過去のある時期にオブジェクトを撮影した場所を訪れた場合に、現実空間上の適切な位置に、過去に撮影された3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示することができる。このため、不特定多数の人が、オブジェクトを撮影した場所を共有できるという効果がある。   According to the mobile phone terminal and the information processing server of the present invention, for example, when visiting a place where an object was photographed at a certain past time, a three-dimensional virtual object photographed in the past is placed at an appropriate position in the real space. The images can be displayed in an appropriate size and direction. For this reason, there is an effect that an unspecified number of people can share the place where the object is photographed.

本発明の一実施形態に係る情報処理システムを示す概略図である。It is a schematic diagram showing an information processing system concerning one embodiment of the present invention. 本発明の一実施形態に係る携帯電話端末の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理サーバの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing server which concerns on one Embodiment of this invention. 情報処理サーバのオブジェクト処理部を中心とするブロック図である。It is a block diagram centering on the object processing part of an information processing server. オブジェクトテーブルを示す説明図である。It is explanatory drawing which shows an object table. オブジェクト登録時の情報処理システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the information processing system at the time of object registration. オブジェクト撮影時のユーザAとオブジェクトとの位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the user A at the time of object imaging | photography, and an object. カメラ部の視野とオブジェクトとの位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the visual field of a camera part, and an object. 情報処理サーバのタッチパネル部に表示される3次元仮想オブジェクトッ生成画面の一例を示す説明図である。It is explanatory drawing which shows an example of the three-dimensional virtual object production | generation screen displayed on the touchscreen part of an information processing server. 情報処理サーバのオブジェクト処理部を中心とするブロック図である。It is a block diagram centering on the object processing part of an information processing server. オブジェクト登録時の情報処理システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the information processing system at the time of object registration. ユーザBの携帯電話端末の表示画面の遷移例を示す説明図である。It is explanatory drawing which shows the example of a transition of the display screen of the user's B mobile telephone terminal. 仮想オブジェクト(広告)を示す説明図である。It is explanatory drawing which shows a virtual object (advertisement).

以下、本発明を実施するための一実施形態例(以下、「本例」ということもある。)について下記(1)〜(7)の順序に従って説明する。なお、以下に述べる実施の形態例は、本発明の好適な具体例である。そのため、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、下記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。例えば、以下の説明で挙げる各パラメータの数値的条件は好適例に過ぎず、説明に用いた各図における配置関係も概略的なものである。
(1)情報処理システムの全体構成
(2)ユーザAの携帯電話端末の構成
(3)情報処理サーバの構成
(4)オブジェクト登録処理部の構成
(5)オブジェクト登録時の情報処理システムの動作
(6)オブジェクト配信処理部の構成
(7)オブジェクト配信時の情報処理システムの動作
Hereinafter, an embodiment for carrying out the present invention (hereinafter sometimes referred to as “this example”) will be described in the order of the following (1) to (7). The embodiment described below is a preferred specific example of the present invention. Therefore, various technically preferable limitations are attached. However, the scope of the present invention is not limited to these embodiments unless otherwise specified in the following description. For example, the numerical conditions of each parameter mentioned in the following description are only preferred examples, and the arrangement relationship in each figure used for the description is also schematic.
(1) Overall configuration of information processing system (2) Configuration of mobile phone terminal of user A (3) Configuration of information processing server (4) Configuration of object registration processing unit (5) Operation of information processing system during object registration ( 6) Configuration of object distribution processing unit (7) Information processing system operation during object distribution

<本発明の一実施形態例の説明>
[1.情報処理システムの全体構成]
以下、本発明の一実施形態例を、図1〜図13を参照して説明する。
図1は、本発明の一実施形態に係る情報処理システムの概略図である。
この情報処理システム101は、携帯電話端末103,108及び情報処理サーバ106より構成されており、これらの各要素がパケット網105で相互に接続されている。
<Description of an embodiment of the present invention>
[1. Overall configuration of information processing system]
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a schematic diagram of an information processing system according to an embodiment of the present invention.
The information processing system 101 includes mobile phone terminals 103 and 108 and an information processing server 106, and these elements are connected to each other via a packet network 105.

ユーザA102は、携帯電話端末103を用いて、情報処理サーバ106に登録するための情報を提供する人物である。
携帯電話端末103は、後述するカメラ部で撮影された動画像及びその動画像に関する所定の位置情報を、パケット網105を介して情報処理サーバ106に送信する。このとき、ユーザA102は、GPS(Global Positioning System)衛星からユーザA102の現在位置情報であるユーザA位置情報(携帯電話端末103によって動画像が撮影された位置の情報)を取得する。このユーザA位置情報もパケット網105を介して情報処理サーバ106に送信される。
The user A 102 is a person who provides information for registration in the information processing server 106 using the mobile phone terminal 103.
The mobile phone terminal 103 transmits a moving image captured by a camera unit, which will be described later, and predetermined position information regarding the moving image to the information processing server 106 via the packet network 105. At this time, the user A 102 acquires user A position information (position information where a moving image is captured by the mobile phone terminal 103), which is current position information of the user A 102, from a GPS (Global Positioning System) satellite. This user A position information is also transmitted to the information processing server 106 via the packet network 105.

情報処理サーバ106は、携帯電話端末103から送信される様々な情報を、パケット網105を介して取得し、それらの情報に基づいて、携帯電話端末103から送信される動画像に含まれるオブジェクト(家、ビル、木、看板等)の3次元CGである3次元仮想オブジェクトを生成する。携帯電話端末103から送信される様々な情報及び生成した3次元仮想オブジェクトは、データベースに記憶される。   The information processing server 106 acquires various information transmitted from the mobile phone terminal 103 via the packet network 105, and based on the information, the object ( A three-dimensional virtual object that is a three-dimensional CG of a house, a building, a tree, a signboard, etc. is generated. Various information transmitted from the mobile phone terminal 103 and the generated three-dimensional virtual object are stored in a database.

また、情報処理サーバ106は、携帯電話端末108に対するユーザB107の操作に基づいてデータベースを検索し、ヒットした情報がある場合は適切な3次元仮想オブジェクトを、パケット網105を介して携帯電話端末108へ送信する。   Further, the information processing server 106 searches the database based on the operation of the user B 107 with respect to the mobile phone terminal 108, and if there is hit information, an appropriate three-dimensional virtual object is obtained via the packet network 105. Send to.

ユーザB107は、携帯電話端末108を用いて、情報処理サーバ106から所定の情報の配信を受ける人物である。
携帯電話端末108は、GPS衛星104からユーザB107の現在位置情報であるユーザB位置情報を取得し、そのユーザB位置情報を、パケット網105を介して情報処理サーバ106に送信する。そして、送信したユーザB位置情報に応じた3次元仮想オブジェクトを情報処理サーバ106から取得する。そして、後述するカメラ部206のレンズを通じて表示部に表示されている風景の所定の位置に3次元仮想オブジェクトを合成表示する。
User B 107 is a person who receives distribution of predetermined information from information processing server 106 using mobile phone terminal 108.
The mobile phone terminal 108 acquires user B position information, which is the current position information of the user B 107, from the GPS satellite 104 and transmits the user B position information to the information processing server 106 via the packet network 105. Then, a three-dimensional virtual object corresponding to the transmitted user B position information is acquired from the information processing server 106. Then, a three-dimensional virtual object is synthesized and displayed at a predetermined position of the landscape displayed on the display unit through a lens of the camera unit 206 described later.

[2.ユーザA,Bの携帯電話端末]
図2は、携帯電話端末103,108の構成を機能的に示したブロック図である。図2は本実施形態例に用いられる機能のみを示している。したがって、通話や電子メール等の本実施形態と関係のない機能の記載は省略している。
[2. Mobile phone terminals of users A and B]
FIG. 2 is a block diagram functionally showing the configuration of the mobile phone terminals 103 and 108. FIG. 2 shows only functions used in this embodiment. Therefore, descriptions of functions that are not related to the present embodiment, such as calls and electronic mail, are omitted.

携帯電話端末103,108は、web通信部202と、記憶部203と、操作部204と、表示部205と、カメラ部206と、描画部207と、GPS受信部208と、姿勢情報取得部209と、制御部210とを含み、これらの各構成要素はデータのやり取りができるように相互に接続されている。   The mobile phone terminals 103 and 108 include a web communication unit 202, a storage unit 203, an operation unit 204, a display unit 205, a camera unit 206, a drawing unit 207, a GPS reception unit 208, and an attitude information acquisition unit 209. And the control unit 210, and these components are connected to each other so that data can be exchanged.

GPS受信部208は、GPS衛星104から受信した電波を受信し、携帯電話端末103,108のユーザA位置情報またはユーザB位置情報(緯度、経度等、高さ)を取得する。   The GPS receiving unit 208 receives radio waves received from the GPS satellite 104, and acquires user A position information or user B position information (latitude, longitude, etc., height) of the mobile phone terminals 103 and 108.

姿勢情報取得部209は、3軸加速度センサ、ジャイロセンサあるいは電子コンパス等を含み、携帯電話端末103,108の現在の向きを示す情報(以下、「姿勢情報」)を取得する。   The posture information acquisition unit 209 includes a triaxial acceleration sensor, a gyro sensor, an electronic compass, and the like, and acquires information indicating the current orientation of the mobile phone terminals 103 and 108 (hereinafter “posture information”).

カメラ部206は、光学レンズや撮像素子等からなり、起動すると、当該光学レンズを通した風景を表示部205に表示する。また、表示部205に表示されているオブジェクトの動画像を撮影し、その動画像を動画像データとして記憶部203に記憶する。なお、カメラ部206は、オートフォーカス機能を実現するために、当該オブジェクトと光学レンズとの間の距離(オブジェクトレンズ間距離)を算出している。   The camera unit 206 includes an optical lens, an image sensor, and the like. When activated, the camera unit 206 displays a landscape through the optical lens on the display unit 205. In addition, a moving image of the object displayed on the display unit 205 is captured, and the moving image is stored in the storage unit 203 as moving image data. The camera unit 206 calculates the distance between the object and the optical lens (inter-object lens distance) in order to realize the autofocus function.

制御部210は、携帯電話端末装置の各構成要素の制御等を含む各種の演算処理を行う。
例えば、ユーザA102の携帯電話端末108においては、カメラ部206でのオブジェクト撮影時において、取得中のオブジェクト動画のフレーム毎に特徴点の抽出を行う。ここで、特徴点とは、オブジェクト動画像を構成する各フレームにおける特徴的な座標を意味しており、1フレームの中に複数存在する。一例を挙げると、各フレームにおける角や穴の位置又は面の中心等のある座標が特徴点とされる。なお、オブジェクト動画の各フレームで抽出されたすべての特徴点を、以下では環境特徴点情報という。また、制御部210は、算出した環境特徴点情報、GPS受信部208で取得されたユーザA位置情報、姿勢情報部で取得された姿勢情報及びカメラ部206で算出されたオブジェクトレンズ間距離に基づいて、特定の特徴点の絶対位置座標(以下、「特徴点絶対位置座標」という)を算出する。ただし、特徴点絶対位置座標の詳細については図7,8にて詳述する。また、ユーザB107の携帯電話端末108の制御部210における演算処理については、図11にて後述する。
The control unit 210 performs various arithmetic processes including control of each component of the mobile phone terminal device.
For example, in the mobile phone terminal 108 of the user A 102, when the object is captured by the camera unit 206, feature points are extracted for each frame of the object moving image being acquired. Here, the feature point means a characteristic coordinate in each frame constituting the object moving image, and a plurality of feature points exist in one frame. For example, a feature point is a coordinate such as a corner, a hole position, or a surface center in each frame. Hereinafter, all feature points extracted in each frame of the object moving image are referred to as environment feature point information. Further, the control unit 210 is based on the calculated environmental feature point information, the user A position information acquired by the GPS receiving unit 208, the posture information acquired by the posture information unit, and the object lens distance calculated by the camera unit 206. Thus, the absolute position coordinates of the specific feature point (hereinafter referred to as “feature point absolute position coordinates”) are calculated. However, details of the feature point absolute position coordinates will be described in detail with reference to FIGS. Further, the calculation processing in the control unit 210 of the mobile phone terminal 108 of the user B 107 will be described later with reference to FIG.

記憶部203は、図示されないROM(Read Only Memory)とRAM(Random Access Memory)を含む。ROMには、制御部210が各部を制御するための制御プログラムや各種の初期設定値等を行うためのアプリケーション用のプログラムコード、動画像データに対して様々な処理を行うためのアプリケーション用プログラムコード、その他、携帯電話端末103,108に搭載される各種のアプリケーション用のプログラムコードなどが記憶されている。   The storage unit 203 includes a ROM (Read Only Memory) and a RAM (Random Access Memory) not shown. The ROM has a control program for the control unit 210 to control each unit, an application program code for performing various initial setting values, and an application program code for performing various processes on moving image data. In addition, program codes for various applications installed in the mobile phone terminals 103 and 108 are stored.

web通信部202は、パケット網105を介して情報処理サーバ106とデータのやり取りを行う。   The web communication unit 202 exchanges data with the information processing server 106 via the packet network 105.

表示部205は、オブジェクト動画像データやカメラ部206の光学レンズを通じた風景を表示する液晶ディスプレイである。また、操作部204は、携帯電話端末103,108の図示しない筐体上に設けられているテンキーやジョグダイアルと、それらの操作に応じた操作信号を発生する操作信号発生部等を有している。   The display unit 205 is a liquid crystal display that displays object moving image data and scenery through the optical lens of the camera unit 206. The operation unit 204 includes a numeric keypad and a jog dial provided on a casing (not shown) of the mobile phone terminals 103 and 108, and an operation signal generation unit that generates an operation signal corresponding to the operation. .

また、描画部207は、パケット網105上の情報処理サーバ106からパケット網105を介して送信される3次元仮想オブジェクト及びその他の情報に基づいて、表示部205に表示されているカメラ部206から入力される映像の上の所定の位置に3次元仮想オブジェクトを合成表示する。なお、この描画部207は、携帯電話端末108のみが必要とする構成要素であるが、携帯電話端末103が描画部207を備えていてもよいことは言うまでもない。   Further, the drawing unit 207 is based on the camera unit 206 displayed on the display unit 205 based on the three-dimensional virtual object and other information transmitted from the information processing server 106 on the packet network 105 via the packet network 105. A three-dimensional virtual object is synthesized and displayed at a predetermined position on the input video. Note that the drawing unit 207 is a component required only by the mobile phone terminal 108, but it goes without saying that the mobile phone terminal 103 may include the drawing unit 207.

[3.情報処理サーバの構成]
次に、情報処理サーバ106の構成について図3を参照して説明する。
図3は、情報処理サーバ106の構成を機能的に示したブロック図である。
情報処理サーバ106は、大まかには、オブジェクト登録処理部302、オブジェクト配信処理部303及び不揮発性データ記憶部304よりなる。
[3. Configuration of information processing server]
Next, the configuration of the information processing server 106 will be described with reference to FIG.
FIG. 3 is a block diagram functionally showing the configuration of the information processing server 106.
The information processing server 106 roughly includes an object registration processing unit 302, an object distribution processing unit 303, and a nonvolatile data storage unit 304.

オブジェクト登録処理部302は、ユーザA102の携帯電話端末103から送信される各情報に基づいて3次元仮想オブジェクトを生成し、生成した3次元仮想オブジェクトを不揮発性データ記憶部304に記録する。なお、オブジェクト登録処理部302の内部構成については図4にて後述する。   The object registration processing unit 302 generates a three-dimensional virtual object based on each information transmitted from the mobile phone terminal 103 of the user A102, and records the generated three-dimensional virtual object in the nonvolatile data storage unit 304. The internal configuration of the object registration processing unit 302 will be described later with reference to FIG.

オブジェクト配信処理部303は、ユーザB107の携帯電話端末108から送信されるユーザB位置情報に応じた3次元仮想オブジェクトを不揮発性データ記憶部304から検索し、ヒットした3次元仮想オブジェクトを携帯電話端末108に送信する。なお、オブジェクト配信処理部303の内部構成については図10にて後述する。   The object distribution processing unit 303 searches the non-volatile data storage unit 304 for a three-dimensional virtual object corresponding to the user B position information transmitted from the mobile phone terminal 108 of the user B 107, and finds the hit three-dimensional virtual object in the mobile phone terminal To 108. The internal configuration of the object distribution processing unit 303 will be described later with reference to FIG.

[4.オブジェクト登録処理部]
次に、図4に基づいて、オブジェクト登録処理部302について説明する。
図4は、オブジェクト登録処理部302及び不揮発性データ記憶部304の構成を機能として示した機能ブロック図である。
[4. Object registration processing section]
Next, the object registration processing unit 302 will be described with reference to FIG.
FIG. 4 is a functional block diagram illustrating the configuration of the object registration processing unit 302 and the nonvolatile data storage unit 304 as functions.

オブジェクト登録処理部302は、通信部402と、データ取得部403と、オブジェクト生成部404とよりなる。
通信部402は、ユーザA102の携帯電話端末103とパケット網105を介して情報のやり取りを行うものであり、携帯電話端末103から送信されるユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を受信し、受信したこれらの情報をデータ取得部403へ出力する。
The object registration processing unit 302 includes a communication unit 402, a data acquisition unit 403, and an object generation unit 404.
The communication unit 402 exchanges information with the mobile phone terminal 103 of the user A 102 via the packet network 105, and the user A position information, shooting date information, object type information, and object transmitted from the mobile phone terminal 103. The moving image data, environmental feature point information, and feature point absolute position coordinates are received, and the received information is output to the data acquisition unit 403.

データ取得部403は、通信部402から入力されたユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、不揮発性データ記憶部304に用意されたオブジェクトテーブル405の所定の領域に格納するとともに、オブジェクト動画像データ及び環境特徴点情報をオブジェクト生成部404へ出力する。なお、オブジェクトテーブル405の詳細については、図5にて後述する。   The data acquisition unit 403 prepares the user A position information, shooting date information, object type information, object moving image data, environmental feature point information, and feature point absolute position coordinates input from the communication unit 402 in the nonvolatile data storage unit 304. The object table 405 is stored in a predetermined area, and the object moving image data and the environmental feature point information are output to the object generation unit 404. Details of the object table 405 will be described later with reference to FIG.

オブジェクト生成部404は、動画像が表示されているタッチパネル部406に対するユーザの操作に基づいて、ユーザが指示した領域内に含まれる特徴点を環境特徴点情報の中から抽出する。そして、抽出した特徴点に基づいて、当該指定した領域のオブジェクトの3次元仮想オブジェクトをオブジェクト動画像データから生成する(非特許文献1を参照)。こうして生成された3次元仮想オブジェクトは、オブジェクトテーブル405の所定の領域に記憶される。なお、3次元仮想オブジェクトの具体的な生成例については図9に基づいて後述される。   The object generation unit 404 extracts feature points included in the area designated by the user from the environmental feature point information based on the user's operation on the touch panel unit 406 on which the moving image is displayed. Based on the extracted feature points, a three-dimensional virtual object of the object in the designated area is generated from the object moving image data (see Non-Patent Document 1). The three-dimensional virtual object generated in this way is stored in a predetermined area of the object table 405. A specific example of generating the three-dimensional virtual object will be described later with reference to FIG.

次に、オブジェクトテーブル405について図5を参照して説明する。
図5は、オブジェクトテーブル405の一例を示す図である。
オブジェクトテーブルは、「位置情報」フィールドと、「撮影日」フィールドと、「オブジェクト種類」フィールドと、「オブジェクト動画」フィールドと、「環境特徴点情報」フィールドと、「特徴点絶対位置座標」フィールドと、「3次元仮想オブジェクトデータ」フィールドとよりなる。
Next, the object table 405 will be described with reference to FIG.
FIG. 5 is a diagram illustrating an example of the object table 405.
The object table includes a “position information” field, a “shooting date” field, an “object type” field, an “object movie” field, an “environment feature point information” field, and a “feature point absolute position coordinate” field. , And a “3D virtual object data” field.

「位置情報」フィールドには、オブジェクト動画を撮影した際にユーザA102がいた位置の緯度・経度・高さを示すユーザA位置情報が格納される。
また、「撮影日」フィールドには、オブジェクト動画を撮影した日を示す情報である撮影日情報が格納される。
また、「オブジェクト種類」フィールドには、オブジェクト動画のオブジェクトの種類を示す情報であるオブジェクト種類情報が格納される。
また、「オブジェクト動画データ」フィールドには、ユーザA102が携帯電話端末103で撮影したオブジェクト動画データが格納される。
The “position information” field stores user A position information indicating the latitude / longitude / height of the position where the user A 102 was at the time of shooting the object moving image.
The “shooting date” field stores shooting date information that is information indicating the date when the object moving image was shot.
The “object type” field stores object type information that is information indicating the type of object of the object moving image.
In the “object moving image data” field, object moving image data shot by the user A 102 with the mobile phone terminal 103 is stored.

また、「環境特徴点情報」フィールドには、動画像の環境特徴点情報が格納される。具体的には、「環境特徴点情報」フィールドは、オブジェクト動画像の各フレーム毎の特徴点の情報を保存するために、例えば、所定のフレームの特徴点(x1,y1),(x2,y2),(x3,y3),…(xn,yn)という座標情報を、フレーム毎に保存している。つまり、オブジェクト動画像のフレームの個数がk個あり、各フレーム内に特徴点が平均n個あるとすれば、特徴点の座標情報の数は、k×n個となる。このようなk×n個の特徴点が環境特徴点情報である。   The “environment feature point information” field stores environment feature point information of a moving image. Specifically, the “environment feature point information” field stores, for example, feature points (x1, y1), (x2, y2) of a predetermined frame in order to store information of feature points for each frame of the object moving image. ), (X3, y3),... (Xn, yn) are stored for each frame. That is, if the number of frames of the object moving image is k and the average number of feature points in each frame is n, the number of feature point coordinate information is k × n. Such k × n feature points are environment feature point information.

また、「特徴点絶対位置座標」フィールドには、動画像の特徴点絶対位置座標が格納される。特徴点絶対位置座標は、(対象特徴点を持つフレーム、そのフレーム内における対象特徴点の位置情報(x,y)、その対象特徴点の絶対位置座標(緯度、経度、高度))といった情報で構成される情報である。例えば、図5に示すオブジェクトテーブル405の「オブジェクト種類」フィールドが建物のレコードである「(15,76,34,35.376000,139.45,0.5)」は、15枚目のフレーム上の座標(x,y)=(76,34)の特徴点の位置を示す絶対位置座標(緯度、経度、高度)が、(35.376000,139.45,0.5)となることを意味している。   The “feature point absolute position coordinates” field stores the feature point absolute position coordinates of the moving image. The feature point absolute position coordinates are information such as (a frame having the target feature point, position information (x, y) of the target feature point in the frame, absolute position coordinates (latitude, longitude, altitude) of the target feature point)). It is configured information. For example, “(15, 76, 34, 35.376000, 139.45, 0.5)” in which the “object type” field of the object table 405 shown in FIG. 5 is a building record is the coordinates (x, y) on the fifteenth frame. ) = (76, 34) means that the absolute position coordinates (latitude, longitude, altitude) indicating the position of the feature point are (35.376000, 139.45, 0.5).

[5.オブジェクト登録時の情報処理システムの動作]
次に、オブジェクト登録時の情報処理システム101の動作について図6を参照して説明する。
図6は、オブジェクト登録時の情報処理システム101の動作を示すフローチャートである。
[5. Operation of the information processing system when registering objects]
Next, the operation of the information processing system 101 at the time of object registration will be described with reference to FIG.
FIG. 6 is a flowchart showing the operation of the information processing system 101 at the time of object registration.

まず、携帯電話端末103を持ったユーザA102が撮影場所に到着する(ステップS1)。そして、ユーザA102の操作部204に対する指示に基づいて、GPS受信部208では、GPS衛星104から電波が受信され、ユーザA102のユーザA位置情報(緯度・経度・高さ)が取得され(ステップS2)、このユーザA位置情報が記憶部203に記憶される。   First, the user A102 with the mobile phone terminal 103 arrives at the shooting location (step S1). Then, based on an instruction to the operation unit 204 of the user A102, the GPS reception unit 208 receives radio waves from the GPS satellite 104, and acquires user A position information (latitude / longitude / height) of the user A102 (step S2). ), The user A position information is stored in the storage unit 203.

そして、ユーザA102により撮影が開始されると、カメラ部206では、ユーザA102の操作部204に対する操作に基づいて、オブジェクト動画像データが取得され(ステップS3)、制御部210に出力される。このとき、カメラ部206では、オブジェクトにピントをあわせるために利用されるオブジェクトレンズ間距離も算出され、制御部210に出力されている。   When shooting is started by the user A 102, the camera unit 206 acquires object moving image data based on an operation on the operation unit 204 of the user A 102 (step S 3), and outputs it to the control unit 210. At this time, in the camera unit 206, the distance between the object lenses used for focusing on the object is also calculated and output to the control unit 210.

制御部210では、カメラ部206から入力されたオブジェクト動画像データから前述の環境特徴点情報が算出される。そして、算出された環境特徴点情報及びオブジェクト動画像データは、記憶部203に記憶される。   The control unit 210 calculates the environmental feature point information described above from the object moving image data input from the camera unit 206. The calculated environmental feature point information and object moving image data are stored in the storage unit 203.

一方、姿勢情報取得部209では、ステップS3の処理時の携帯電話端末103の姿勢情報が取得され、制御部210に出力される。そして、制御部210では、カメラ部206から入力されるオブジェクトレンズ間距離、記憶部203から読み出す環境特徴点情報及び姿勢情報取得部209から入力される姿勢情報に基づいて、特徴点絶対位置座標が算出され、記憶部203に記憶される。なお、特徴点絶対位置座標の詳細な算出方法については、図7,8を参照して説明する。   On the other hand, the posture information acquisition unit 209 acquires the posture information of the mobile phone terminal 103 at the time of the process of step S <b> 3 and outputs it to the control unit 210. The control unit 210 calculates the feature point absolute position coordinates based on the distance between the object lenses input from the camera unit 206, the environmental feature point information read from the storage unit 203, and the posture information input from the posture information acquisition unit 209. Calculated and stored in the storage unit 203. A detailed calculation method of the feature point absolute position coordinates will be described with reference to FIGS.

以上の処理が完了した後、制御部210は、ユーザA位置情報、ステップS3の処理時に不図示の時計により取得され記憶部203に記憶された撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、記憶部203から読み出し、web通信部202に出力する。そして、web通信部202は、ユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、パケット網105を介して情報処理サーバ106に送信する(ステップS5)。   After the above processing is completed, the control unit 210 acquires the user A position information, the shooting date information acquired by the clock (not shown) during the processing in step S3 and stored in the storage unit 203, object type information, object moving image data, environment The feature point information and the feature point absolute position coordinates are read from the storage unit 203 and output to the web communication unit 202. Then, the web communication unit 202 transmits user A position information, shooting date information, object type information, object moving image data, environmental feature point information, and feature point absolute position coordinates to the information processing server 106 via the packet network 105. (Step S5).

このweb通信部202から送信されるユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標は、情報処理サーバ106のオブジェクト登録処理部302の通信部402で受信され、データ取得部403に出力される。   The user A position information, shooting date information, object type information, object moving image data, environmental feature point information, and feature point absolute position coordinates transmitted from the web communication unit 202 are communicated by the object registration processing unit 302 of the information processing server 106. The data is received by the unit 402 and output to the data acquisition unit 403.

そして、データ取得部403は、ユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、オブジェクトテーブル405の「位置情報」フィールド、「撮影日情報」フィールド、「オブジェクト種類情報」フィールド、「オブジェクト動画データ」フィールド、「環境特徴点情報」フィールド及び「特徴点絶対位置座標」フィールドにそれぞれ格納する(ステップS7)。そして、データ取得部403から、オブジェクト動画像データ及び環境特徴点情報がオブジェクト生成部404に出力される。   Then, the data acquisition unit 403 displays the user A position information, shooting date information, object type information, object moving image data, environmental feature point information, and feature point absolute position coordinates in the “position information” field of the object table 405, “shooting date”. The information is stored in the “information” field, the “object type information” field, the “object moving image data” field, the “environment feature point information” field, and the “feature point absolute position coordinate” field (step S7). Then, the object moving image data and the environmental feature point information are output from the data acquisition unit 403 to the object generation unit 404.

オブジェクト生成部404は、操作部204に対するユーザの操作に基づいて、環境特徴点情報の中からユーザが指示した領域内に含まれる特徴点のみを抽出する。そして、この抽出した特徴点に基づいて、当該指定した領域のオブジェクトの3次元仮想オブジェクトがオブジェクト動画像データから生成される(ステップS8)。このようにして生成された3次元仮想オブジェクトは、オブジェクトテーブル405の「3次元仮想オブジェクト」フィールドに格納され、処理が終了する。   Based on the user's operation on the operation unit 204, the object generation unit 404 extracts only the feature points included in the area designated by the user from the environmental feature point information. Based on the extracted feature points, a three-dimensional virtual object of the object in the designated area is generated from the object moving image data (step S8). The three-dimensional virtual object generated in this way is stored in the “three-dimensional virtual object” field of the object table 405, and the process ends.

次に、制御部210で行われる特徴点絶対位置座標に含まれる絶対位置座標の各パラメータ(図5を参照)の算出処理について図7,8を参照して説明する。
図7(A)は、ユーザA102とオブジェクトとの位置関係を示す斜視図である。
図7(B)は、図7(A)に示す空間の位置I及び位置Oを通る断面図である。
位置Iは、ユーザA102の視点、すなわち携帯電話端末103のカメラ部206を構成する光学レンズの位置である。位置Oは、ユーザA102の視点から見ることが可能なオブジェクト702の任意の一点、本例では環境特徴点情報の中の任意の一つの特徴点とする。角度θは、光学レンズの地面に対する傾き角度であり、姿勢情報取得部209で取得される姿勢情報に含まれる情報である。高度Hは、地面と光学レンズ間の距離であり、GPS受信部208によってGPS衛星104から取得されるユーザA位置情報に含まれる情報である。距離Dは、前述のオブジェクトレンズ間距離であり、カメラ部206によって算出される情報である。
Next, calculation processing of each parameter (see FIG. 5) of absolute position coordinates included in the feature point absolute position coordinates performed by the control unit 210 will be described with reference to FIGS.
FIG. 7A is a perspective view showing the positional relationship between the user A102 and the object.
FIG. 7B is a cross-sectional view passing through the position I and the position O of the space shown in FIG.
The position I is the viewpoint of the user A102, that is, the position of the optical lens constituting the camera unit 206 of the mobile phone terminal 103. The position O is an arbitrary point of the object 702 that can be viewed from the viewpoint of the user A102, in this example, an arbitrary one of the feature points in the environmental feature point information. The angle θ is an inclination angle of the optical lens with respect to the ground, and is information included in the posture information acquired by the posture information acquisition unit 209. The altitude H is a distance between the ground and the optical lens, and is information included in the user A position information acquired from the GPS satellite 104 by the GPS receiving unit 208. The distance D is the distance between the object lenses described above, and is information calculated by the camera unit 206.

これらのパラメータを用いてオブジェクト702の位置Oの高さhを求める式を以下に示す。
h=H−Dcosθ
An expression for obtaining the height h of the position O of the object 702 using these parameters is shown below.
h = H−D cos θ

図8は、カメラ部206の視野とオブジェクト702との位置関係を示す説明図である。
カメラ視野は、ユーザA102の携帯電話端末103のカメラ部206で撮影可能な範囲である。カメラ視野におけるRは、携帯電話端末103のカメラ部206の光学レンズの位置Iから撮影できる限界までの距離を示す。角度φは、位置Iと位置Oを結んだ直線と、北の方向軸803とがなす角度であり、姿勢情報取得部209で取得される姿勢情報に含まれる情報である。
FIG. 8 is an explanatory diagram showing the positional relationship between the field of view of the camera unit 206 and the object 702.
The camera field of view is a range that can be captured by the camera unit 206 of the mobile phone terminal 103 of the user A102. R in the camera field of view indicates the distance from the position I of the optical lens of the camera unit 206 of the mobile phone terminal 103 to the limit at which shooting can be performed. The angle φ is an angle formed by the straight line connecting the position I and the position O and the north direction axis 803, and is information included in the posture information acquired by the posture information acquisition unit 209.

位置Iの位置を(x:緯度,y:経度)とし、位置Oの位置を(x1:緯度,y1:経度)とすると、位置Iと位置Oの位置関係は以下に示す式のとおりとなる。なお、位置Iにおける緯度x及び経度yは、GPS受信部208によってGPS衛星104から取得されるユーザA位置情報に含まれる情報である。
x1=x−Dsinθsinφ
y1=y+Dsinθcosφ
When the position I is (x: latitude, y: longitude) and the position O is (x1: latitude, y1: longitude), the positional relationship between the position I and the position O is as shown in the following formula. . Note that the latitude x and the longitude y at the position I are information included in the user A position information acquired from the GPS satellite 104 by the GPS receiving unit 208.
x1 = x−Dsinθsinφ
y1 = y + Dsin θ cos φ

以上に示した3つの式を用いることにより、制御部210は、オブジェクト702の任意の点の絶対位置座標(x1:緯度、y1:経度、h:高さ)を算出している。   By using the three expressions shown above, the control unit 210 calculates absolute position coordinates (x1: latitude, y1: longitude, h: height) of an arbitrary point of the object 702.

次に、情報処理サーバ106のオブジェクト生成部404で行われる3次元仮想オブジェクト生成処理(図6のステップS8の処理)について図9を参照して説明する。
図9は、オブジェクト生成部404での3次元仮想オブジェクト生成処理時にタッチパネル部406に表示される表示画面の一例を示す説明図である。なお、本例では、オブジェクト生成部404で生成したい3次元仮想オブジェクトが建物902である場合を例とする。
Next, the three-dimensional virtual object generation process (the process of step S8 in FIG. 6) performed by the object generation unit 404 of the information processing server 106 will be described with reference to FIG.
FIG. 9 is an explanatory diagram illustrating an example of a display screen displayed on the touch panel unit 406 during the three-dimensional virtual object generation process in the object generation unit 404. In this example, the case where the three-dimensional virtual object to be generated by the object generation unit 404 is a building 902 is taken as an example.

図9(A)は、3次元仮想オブジェクトの元になる動画像の再生画面を示す図である。
まず、情報サーバ側のユーザは、図9(B)に示すように、タッチパネル部406に対して指やペン等で建物902の輪郭に線903,904を引く。すると、オブジェクト生成部404では、環境特徴点情報の中から線903,904に囲まれた領域の特徴点がそれぞれ抽出される。そして、線903に含まれる特徴点に基づいてパーツ905の仮想平面が生成され、線904に含まれる特徴点に基づいてパーツ906の仮想平面が生成される。
FIG. 9A is a diagram showing a moving image playback screen that is the basis of a three-dimensional virtual object.
First, as shown in FIG. 9B, the user on the information server side draws lines 903 and 904 on the outline of the building 902 with a finger or a pen on the touch panel unit 406. Then, the object generation unit 404 extracts the feature points of the area surrounded by the lines 903 and 904 from the environmental feature point information. A virtual plane of the part 905 is generated based on the feature points included in the line 903, and a virtual plane of the part 906 is generated based on the feature points included in the line 904.

さらに、この操作が建物902の360度すべての方向に対して行われ、建物902の360度すべての方向の平面が生成される。そして、生成されたすべての平面及びこれらの平面を生成するのに用いた各特徴点間の関係性を利用することにより、3次元仮想オブジェクトが生成される。   Further, this operation is performed on all directions of 360 degrees of the building 902, and planes of all directions of 360 degrees of the building 902 are generated. Then, a three-dimensional virtual object is generated by using all the generated planes and the relationship between the feature points used to generate these planes.

[6.オブジェクト配信処理部の構成]
次に、オブジェクト配信処理部303の構成について図10を参照して説明する。
図10は、オブジェクト配信処理部303及び不揮発性データ記憶部304の機能的な構成を示すブロック図である。
[6. Configuration of object distribution processing unit]
Next, the configuration of the object distribution processing unit 303 will be described with reference to FIG.
FIG. 10 is a block diagram illustrating functional configurations of the object distribution processing unit 303 and the nonvolatile data storage unit 304.

オブジェクト配信処理部303は、通信部1002とオブジェクト検索部1003よりなる。
通信部1002は、ユーザB107の携帯電話端末108とパケット網105を介して情報のやり取りを行うものであり、携帯電話端末108から送信されるユーザB位置情報を受信し、受信したユーザB位置情報をオブジェクト検索部1003に出力する。なお、オブジェクト配信処理部303の通信部1002は、オブジェクト登録処理部302の通信部402と共通であってもよい。
The object distribution processing unit 303 includes a communication unit 1002 and an object search unit 1003.
The communication unit 1002 exchanges information with the mobile phone terminal 108 of the user B 107 via the packet network 105, receives the user B location information transmitted from the mobile phone terminal 108, and receives the received user B location information. Is output to the object search unit 1003. Note that the communication unit 1002 of the object distribution processing unit 303 may be the same as the communication unit 402 of the object registration processing unit 302.

オブジェクト検索部1003は、通信部1002から入力されるユーザB位置情報で、オブジェクトテーブル405の「位置情報」フィールドを検索し、該当するレコードの「環境特徴点情報」、「特徴点絶対値座標」及び「3次元仮想オブジェクト」の各フィールドに格納された情報を取得する。取得した情報は、通信部1002を介してパケット網105上の携帯電話端末108に送信される。   The object search unit 1003 searches the “position information” field of the object table 405 with the user B position information input from the communication unit 1002, and “environment feature point information” and “feature point absolute value coordinates” of the corresponding record. And the information stored in each field of “3D virtual object” is acquired. The acquired information is transmitted to the mobile phone terminal 108 on the packet network 105 via the communication unit 1002.

[7.オブジェクト配信時の情報処理システムの動作]
次に、情報処理システム101のオブジェクト配信時の動作について図11を参照して説明する。
図11は、オブジェクト登録時の情報処理システム101の動作を示すフローチャートである。
[7. Operation of information processing system during object distribution]
Next, the operation at the time of object distribution of the information processing system 101 will be described with reference to FIG.
FIG. 11 is a flowchart showing the operation of the information processing system 101 at the time of object registration.

まず、携帯電話端末108を持ったユーザB107が閲覧場所に到着し(ステップS10)、カメラ部206を起動させる。すると、表示部205には、カメラ部206より取得されたカメラ視野802に含まれる風景が、図12(A)の表示画面1202のように示されるように表示される。   First, the user B 107 having the mobile phone terminal 108 arrives at the browsing place (step S10) and activates the camera unit 206. Then, the landscape included in the camera view 802 acquired from the camera unit 206 is displayed on the display unit 205 as shown in the display screen 1202 of FIG.

ここで、ユーザB107の操作部204に対する指示に基づいて、GPS受信部208では、GPS衛星104から電波が受信され、ユーザB107のユーザB位置情報(緯度・経度・高さ)が取得される(ステップS11)。取得されたユーザB位置情報は、web通信部202に出力される。   Here, based on an instruction to the operation unit 204 of the user B 107, the GPS reception unit 208 receives radio waves from the GPS satellite 104 and acquires user B position information (latitude / longitude / height) of the user B 107 ( Step S11). The acquired user B position information is output to the web communication unit 202.

web通信部202は、入力されたユーザB位置情報を、パケット網105を介して情報処理サーバ106に送信する。そして、情報処理サーバ106のオブジェクト配信処理部303を構成する通信部1002において、携帯電話端末108のweb通信部202から送信されたユーザB位置情報が受信され(ステップS12)、オブジェクト検索部1003に出力される。   The web communication unit 202 transmits the input user B position information to the information processing server 106 via the packet network 105. Then, the communication unit 1002 constituting the object distribution processing unit 303 of the information processing server 106 receives the user B location information transmitted from the web communication unit 202 of the mobile phone terminal 108 (step S12), and the object search unit 1003 receives the information. Is output.

オブジェクト検索部1003は、オブジェクトテーブル405の「位置情報」フィールド(図5を参照)を、入力されたユーザB位置情報で検索する(ステップS13)。そして、該当するレコードがないと判定された場合は(ステップS13のNO)、処理を終了する。ステップS13で、該当するレコードがあると判定された場合は(ステップS13のYES)、オブジェクト検索部1003は、該当するレコードの「環境特徴点情報」フィールド、「特徴点絶対位置座標」フィールド及び「3次元仮想オブジェクト」フィールドに格納されている環境特徴点情報、特徴点絶対位置座標及び3次元仮想オブジェクトを取得する(ステップS14)。そして、オブジェクト検索部1003で取得された環境特徴点情報、特徴点絶対位置座標及び3次元仮想オブジェクトは、通信部1002を介して携帯電話端末108のweb通信部202に送信される。   The object search unit 1003 searches the “position information” field (see FIG. 5) of the object table 405 with the input user B position information (step S13). And when it determines with there being no applicable record (NO of step S13), a process is complete | finished. If it is determined in step S13 that there is a corresponding record (YES in step S13), the object search unit 1003 displays the “environment feature point information” field, “feature point absolute position coordinate” field, and “ The environmental feature point information, the feature point absolute position coordinates, and the three-dimensional virtual object stored in the “three-dimensional virtual object” field are acquired (step S14). Then, the environmental feature point information, the feature point absolute position coordinates, and the three-dimensional virtual object acquired by the object search unit 1003 are transmitted to the web communication unit 202 of the mobile phone terminal 108 via the communication unit 1002.

ここで、制御部210は、3次元仮想オブジェクトの位置とカメラ視野802を比較する(ステップS15)。つまり、現在、カメラ部206が取得している動画像の特徴点を抽出し、この抽出した特徴点と情報処理サーバ106から送信された環境特徴点情報とを比較する。   Here, the control unit 210 compares the position of the three-dimensional virtual object with the camera field of view 802 (step S15). That is, the feature point of the moving image currently acquired by the camera unit 206 is extracted, and the extracted feature point is compared with the environmental feature point information transmitted from the information processing server 106.

そして、カメラ視野802の範囲内に3次元仮想オブジェクトが存在するか否か、つまり環境特徴点情報の中に抽出された特徴点と一致するものがあるか否かが確認される(ステップS16)。   Then, it is confirmed whether or not there is a three-dimensional virtual object within the range of the camera field of view 802, that is, whether or not there is a feature that matches the extracted feature point in the environmental feature point information (step S16). .

このステップS16において、カメラ視野802の範囲内に3次元仮想オブジェクトが存在しないと判定された場合、すなわち環境特徴点情報の中に抽出された特徴点と一致するものが存在しない場合には(ステップS16のNO)、ステップS15の処理に戻る。   If it is determined in step S16 that there is no three-dimensional virtual object in the range of the camera field of view 802, that is, if there is no matching feature point in the environmental feature point information (step S16). (NO in S16), the process returns to step S15.

カメラ視野802の範囲内に3次元仮想オブジェクトが存在すると判定された場合、すなわち環境特徴点情報の中に抽出された特徴点と一致するものが存在する場合には、抽出された特徴点、ユーザB位置情報及び特徴点絶対位置座標に基づいて、現在、表示部205に表示されている表示画面1202に合成する3次元仮想オブジェクトの大きさ、方向及び位置が、描画部207で決定される。そして、図12(B)に示すように、表示部205に3次元仮想オブジェクト1203が合成表示され(ステップS17)、処理が終了する。   If it is determined that a three-dimensional virtual object exists within the range of the camera field of view 802, that is, if there is a feature that matches the extracted feature point in the environmental feature point information, the extracted feature point, user Based on the B position information and the feature point absolute position coordinates, the drawing unit 207 determines the size, direction, and position of the three-dimensional virtual object to be combined with the display screen 1202 currently displayed on the display unit 205. Then, as shown in FIG. 12B, the three-dimensional virtual object 1203 is synthesized and displayed on the display unit 205 (step S17), and the process ends.

次に、ステップS17の処理である、3次元仮想オブジェクトの大きさ、方向及び位置を決定する処理についてより詳細に説明を行う。
まず、大きさを決定する処理について説明する。
ユーザB位置情報(緯度・経度・高さ)と特徴点絶対位置座標に含まれる絶対位置座標(緯度・経度・高さ)を利用して、ユーザBと3次元仮想オブジェクトの間の現実世界での距離が算出される。そして、その距離に応じて3次元仮想オブジェクトの大きさが決定される。
Next, the process of determining the size, direction, and position of the three-dimensional virtual object, which is the process of step S17, will be described in more detail.
First, the process for determining the size will be described.
In the real world between user B and the three-dimensional virtual object, using the user B position information (latitude, longitude, height) and the absolute position coordinates (latitude, longitude, height) included in the feature point absolute position coordinates The distance is calculated. Then, the size of the three-dimensional virtual object is determined according to the distance.

次に、方向を決定する処理について説明する。
情報処理サーバから取得した環境特徴点情報(ダウンロードした環境特徴点情報)と、カメラが現在撮影している画像(図12(A)を参照)の環境特徴点情報を比較する。現在の画像にはオブジェクトは存在していないが、地面などの特徴点は取得できる。ダウンロードした環境特徴点情報は、オブジェクトの特徴点以外に地面などの特徴点も含んでいるので、それらを比較し、一致するフレームを算出する。算出したフレームによって、当該フレームにおいてオブジェクトがどのように表示されているのかを判別することができる。これにより、3次元仮想オブジェクトを表示部205上に配置する際の方向が決定される。なお、3次元仮想オブジェクトが配置される表示部205上の位置は、特徴点絶対位置座標に含まれる対象特徴点の位置情報に該当する。
Next, the process for determining the direction will be described.
The environmental feature point information acquired from the information processing server (downloaded environmental feature point information) is compared with the environmental feature point information of the image currently captured by the camera (see FIG. 12A). Although no object exists in the current image, feature points such as the ground can be acquired. Since the downloaded environmental feature point information includes feature points such as the ground in addition to the feature points of the object, they are compared and a matching frame is calculated. Based on the calculated frame, it is possible to determine how the object is displayed in the frame. Thereby, the direction in which the three-dimensional virtual object is arranged on the display unit 205 is determined. Note that the position on the display unit 205 where the three-dimensional virtual object is arranged corresponds to the position information of the target feature point included in the feature point absolute position coordinates.

以上説明したように、本実施形態によれば、ユーザBがユーザAにより動画像が撮影された場所に行った際に、現実空間が表示されている表示部の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示することができる。これにより、不特定多数の人が、オブジェクトを撮影した場所を共有できるという効果がある。   As described above, according to the present embodiment, when the user B goes to the place where the moving image is captured by the user A, the three-dimensional virtual object is placed at an appropriate position on the display unit where the real space is displayed. Can be displayed in an appropriate size and direction. Thereby, there is an effect that an unspecified number of people can share the place where the object is photographed.

なお、上述した実施形態では、生成する3次元仮想オブジェクトが建物である例を示したが、例えば図13に示すように広告の3次元仮想オブジェクトを生成し、表示画面に合成表示することも可能である。なお、3次元オブジェクトは、建物や看板に限られるものではなく、例えば家具、家電及び車等でもよい。   In the above-described embodiment, an example in which the generated three-dimensional virtual object is a building is shown. However, for example, as shown in FIG. 13, a three-dimensional virtual object for an advertisement can be generated and displayed on a display screen. It is. Note that the three-dimensional object is not limited to a building or a signboard, and may be, for example, furniture, a home appliance, a car, or the like.

また、上述した実施形態では、情報処理サーバのオブジェクトテーブルに格納されているすべての3次元仮想オブジェクトの中から、ユーザBの携帯電話端末108に送信する3次元仮想オブジェクトを決定していた。しかしながら、オブジェクトテーブルに格納されている3次元仮想オブジェクトを撮影日情報及び/またはオブジェクト種類情報で絞り込んだ後に、携帯電話端末108に送信するようにしてもよい。これは、携帯電話端末108から情報処理サーバへユーザB位置情報を送信する際に、撮影日情報及び/またはオブジェクト種類情報も送信しておき、撮影日情報及び/またはオブジェクト種類情報でオブジェクトテーブルのレコードを絞り込むことによって実現できる。   In the above-described embodiment, the three-dimensional virtual object to be transmitted to the mobile phone terminal 108 of the user B is determined from all the three-dimensional virtual objects stored in the object table of the information processing server. However, the three-dimensional virtual objects stored in the object table may be transmitted to the mobile phone terminal 108 after being narrowed down by shooting date information and / or object type information. This is because when the user B position information is transmitted from the mobile phone terminal 108 to the information processing server, the shooting date information and / or the object type information is also transmitted, and the object table is stored with the shooting date information and / or the object type information. This can be achieved by narrowing down records.

また、上述した実施形態では、情報処理サーバにおいてオブジェクトテーブルに格納されている3次元仮想オブジェクトは、ユーザのタッチパネル部に対する操作に基づいて、動画像データから3次元仮想オブジェクトを生成されるものである。しかし、3間オブジェクトは、動画像データの画像解析により、動画像データから自動的に生成されるようにしてもよい。   In the above-described embodiment, the three-dimensional virtual object stored in the object table in the information processing server is generated from the moving image data based on the user's operation on the touch panel unit. . However, the three-way object may be automatically generated from the moving image data by image analysis of the moving image data.

以上、本発明の実施形態の例について説明したが、本発明は上記実施形態例に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことはいうまでもない。   As mentioned above, although the example of embodiment of this invention was demonstrated, this invention is not limited to the said embodiment example, Unless it deviates from the summary of this invention described in the claim, other modifications Needless to say, application examples are included.

101…情報処理システム、102…ユーザA、103…携帯電話端末、104…GPS衛星、105…パケット網、106…情報処理サーバ、107…ユーザB、108…携帯電話端末、202…web通信部、203…記憶部、204…操作部、205…表示部、206…カメラ部、207…描画部、208…GPS受信部、209…姿勢情報取得部、210…制御部、302…オブジェクト登録処理部、303…オブジェクト配信処理部、304…不揮発性データ記憶部、402…通信部、403…データ取得部、404…オブジェクト生成部、405…オブジェクトテーブル、702…オブジェクト、802…カメラ視野、803…北の方向軸、1002…通信部、1003…オブジェクト検索部   DESCRIPTION OF SYMBOLS 101 ... Information processing system, 102 ... User A, 103 ... Mobile phone terminal, 104 ... GPS satellite, 105 ... Packet network, 106 ... Information processing server, 107 ... User B, 108 ... Mobile phone terminal, 202 ... Web communication part, DESCRIPTION OF SYMBOLS 203 ... Memory | storage part, 204 ... Operation part, 205 ... Display part, 206 ... Camera part, 207 ... Drawing part, 208 ... GPS receiving part, 209 ... Attitude information acquisition part, 210 ... Control part, 302 ... Object registration process part, 303 ... Object distribution processing unit, 304 ... Non-volatile data storage unit, 402 ... Communication unit, 403 ... Data acquisition unit, 404 ... Object generation unit, 405 ... Object table, 702 ... Object, 802 ... Camera field of view, 803 ... North Direction axis, 1002 ... Communication unit, 1003 ... Object search unit

Claims (3)

光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、
前記カメラ部で取得された前記画像を表示する表示部と、
前記カメラ部で取得された前記画像から前記画像に係る空間情報を算出する制御部と、
GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、
過去に撮影した動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクトと、前記動画像が撮影された場所を示す撮影位置情報と、前記動画像に係る空間情報とが対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに、前記携帯電話位置情報を送信するとともに、前記オブジェクトテーブル内に、前記送信した携帯電話位置情報に一致する前記撮影位置情報があった場合に、前記情報処理サーバから送信される前記3次元仮想オブジェクト及び前記動画像に係る空間情報を受信するweb通信部と、
前記動画像に係る空間情報と前記画像に係る空間情報との関係性を利用することにより、前記3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、前記決定した位置に前記3次元仮想オブジェクトを合成して表示させる描画部と
を備える携帯電話端末。
A camera unit that includes an optical lens and acquires light passing through the optical lens as an image;
A display unit for displaying the image acquired by the camera unit;
A control unit that calculates spatial information related to the image from the image acquired by the camera unit;
A GPS receiver that receives radio waves from GPS satellites to obtain mobile phone position information;
A three-dimensional virtual object that is three-dimensional computer graphics generated based on a moving image shot in the past, shooting position information indicating a location where the moving image was shot, and spatial information related to the moving image. The mobile phone position information is transmitted to an information processing server including an object table stored in association with the image capturing position information that matches the transmitted mobile phone position information in the object table. A web communication unit that receives spatial information related to the three-dimensional virtual object and the moving image transmitted from the information processing server;
By utilizing the relationship between the spatial information relating to the moving image and the spatial information relating to the image, the size, direction and position when the three-dimensional virtual object is synthesized on the display screen are determined, A mobile phone terminal comprising: a drawing unit configured to synthesize and display the three-dimensional virtual object at the determined position.
前記携帯電話位置情報及び前記撮影位置情報は、緯度、経度及び高さを含む情報である
請求項1に記載の携帯電話端末。
The mobile phone terminal according to claim 1, wherein the mobile phone position information and the shooting position information are information including latitude, longitude, and height.
過去に撮影した動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクトと、前記動画像が撮影された場所を示す撮影位置情報と、前記動画像に係る空間情報とが対応付けられて格納されているオブジェクトテーブルと、
携帯電話端末から送信される携帯電話位置情報を受信し、受信した前記携帯電話位置情報と一致する前記撮影位置情報を前記オブジェクトテーブルから検索し、前記携帯電話位置情報に対応する前記撮影位置情報を有する前記3次元仮想オブジェクト及び前記動画像に係る空間情報オブジェクトを、前記携帯電話端末に送信するオブジェクト配信処理部と
を含む情報処理サーバと、
光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、
前記カメラ部で取得された前記画像を表示する表示部と、
前記カメラ部で取得された前記画像から前記画像に係る空間情報を算出する制御部と、
GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、
前記オブジェクト配信処理部に前記携帯電話位置情報を送信するとともに、前記オブジェクト処理部から送信される前記3次元仮想オブジェクト及び前記動画像に係る空間情報を受信するweb通信部と、
前記動画像に係る空間情報と前記画像に係る空間情報との関係性を利用することにより、前記3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に前記3次元仮想オブジェクトを合成して表示させる描画部と
を含む携帯電話端末と
を備える情報処理システム。
A three-dimensional virtual object that is three-dimensional computer graphics generated based on a moving image shot in the past, shooting position information indicating a location where the moving image was shot, and spatial information related to the moving image. An associated object table and
The mobile phone position information transmitted from the mobile phone terminal is received, the shooting position information matching the received mobile phone position information is searched from the object table, and the shooting position information corresponding to the mobile phone position information is retrieved. An information distribution server including: an object distribution processing unit that transmits the three-dimensional virtual object and the spatial information object related to the moving image to the mobile phone terminal;
A camera unit that includes an optical lens and acquires light passing through the optical lens as an image;
A display unit for displaying the image acquired by the camera unit;
A control unit that calculates spatial information related to the image from the image acquired by the camera unit;
A GPS receiver that receives radio waves from GPS satellites to obtain mobile phone position information;
A web communication unit that transmits the mobile phone position information to the object distribution processing unit and receives the spatial information related to the three-dimensional virtual object and the moving image transmitted from the object processing unit;
By using the relationship between the spatial information related to the moving image and the spatial information related to the image, the size, direction and position when the three-dimensional virtual object is synthesized on the display screen are determined and determined. An information processing system comprising: a mobile phone terminal including a drawing unit that synthesizes and displays the three-dimensional virtual object at the position.
JP2009164908A 2009-07-13 2009-07-13 Portable telephone terminal and information processing system Pending JP2011022662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009164908A JP2011022662A (en) 2009-07-13 2009-07-13 Portable telephone terminal and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009164908A JP2011022662A (en) 2009-07-13 2009-07-13 Portable telephone terminal and information processing system

Publications (1)

Publication Number Publication Date
JP2011022662A true JP2011022662A (en) 2011-02-03

Family

ID=43632705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009164908A Pending JP2011022662A (en) 2009-07-13 2009-07-13 Portable telephone terminal and information processing system

Country Status (1)

Country Link
JP (1) JP2011022662A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3097474A1 (en) * 2014-01-24 2016-11-30 PCMS Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with the real world places
JP2018518789A (en) * 2015-06-10 2018-07-12 ウー ピン Online sites associated with fictitious geographic locations

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3097474A1 (en) * 2014-01-24 2016-11-30 PCMS Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with the real world places
JP2017508200A (en) * 2014-01-24 2017-03-23 ピーシーエムエス ホールディングス インコーポレイテッド Methods, apparatus, systems, devices, and computer program products for extending reality associated with real-world locations
US11854130B2 (en) 2014-01-24 2023-12-26 Interdigital Vc Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with real world places
JP2018518789A (en) * 2015-06-10 2018-07-12 ウー ピン Online sites associated with fictitious geographic locations

Similar Documents

Publication Publication Date Title
KR102414587B1 (en) Augmented reality data presentation method, apparatus, device and storage medium
CN105046752B (en) Method for describing virtual information in the view of true environment
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US20110279478A1 (en) Virtual Tagging Method and System
US20140267234A1 (en) Generation and Sharing Coordinate System Between Users on Mobile
CN102542905B (en) Image processing apparatus and image processing method
EP2490182A1 (en) authoring of augmented reality
JP2003132068A (en) Navigation system and navigation terminal
Unal et al. Distant augmented reality: Bringing a new dimension to user experience using drones
KR101413011B1 (en) Augmented Reality System based on Location Coordinates and Augmented Reality Image Providing Method thereof
CN111651051B (en) Virtual sand table display method and device
JP2017212510A (en) Image management device, program, image management system, and information terminal
JP2022505999A (en) Augmented reality data presentation methods, devices, equipment and storage media
KR100679864B1 (en) Cellular phone capable of displaying geographic information and a method thereof
KR20110070210A (en) Mobile terminal and method for providing augmented reality service using position-detecting sensor and direction-detecting sensor
KR20150077607A (en) Dinosaur Heritage Experience Service System Using Augmented Reality and Method therefor
JP2016122277A (en) Content providing server, content display terminal, content providing system, content providing method, and content display program
JP2010231741A (en) Electronic tag generating and displaying system, electronic tag generating and displaying device, and method thereof
KR20190047922A (en) System for sharing information using mixed reality
KR101659089B1 (en) Augmented reality apparatus using position information
KR101902131B1 (en) System for producing simulation panoramic indoor images
JP2011022662A (en) Portable telephone terminal and information processing system
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
JP4733343B2 (en) Navigation system, navigation device, navigation method, and navigation program
JP2010171664A (en) Personal digital assistant, information display control method, and information display control program