JP2010165081A - Display apparatus, and system, apparatus and method for creating three-dimensional content - Google Patents

Display apparatus, and system, apparatus and method for creating three-dimensional content Download PDF

Info

Publication number
JP2010165081A
JP2010165081A JP2009005273A JP2009005273A JP2010165081A JP 2010165081 A JP2010165081 A JP 2010165081A JP 2009005273 A JP2009005273 A JP 2009005273A JP 2009005273 A JP2009005273 A JP 2009005273A JP 2010165081 A JP2010165081 A JP 2010165081A
Authority
JP
Japan
Prior art keywords
shooting
dimensional content
image
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009005273A
Other languages
Japanese (ja)
Inventor
Shoichi Nagatomo
正一 永友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009005273A priority Critical patent/JP2010165081A/en
Publication of JP2010165081A publication Critical patent/JP2010165081A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To create and provide a desired three-dimensional content for a user while reducing a load related to acquisition of a required partial element, in creating the three-dimensional content. <P>SOLUTION: When the user images an object from a plurality of directions and positions using a cellular phone 1 with a camera function based on a shooting direction and shooting position of the object such as a building or the like transmitted from a center 5, the captured images, the shooting positions, and shooting directions are transmitted to the center 5. In the center 5, a server 3 creates the three-dimensional content based on the received data and the captured image, the shooting position, and shooting direction of the object stored in a database 4. Then, when the cellular phone 1 requests transmission of the three-dimensional content, the server 3 transmits the created three-dimensional content to the cellular phone 1, and the cellular phone 1 displays the three-dimensional content on a screen based on the three-dimensional content. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、表示装置、立体コンテンツ生成システム、立体コンテンツ生成装置、及び、立体コンテンツ生成方法に関する。
本発明の利用分野としては、例えば、画像データをセンターに送信し、センター側で画像データを元に立体コンテンツを生成して、画像データを送信したユーザに提供する立体コンテンツ提供サービスを提供する。
The present invention relates to a display device, a stereoscopic content generation system, a stereoscopic content generation device, and a stereoscopic content generation method.
As a field of use of the present invention, for example, there is provided a stereoscopic content providing service that transmits image data to a center, generates stereoscopic content based on the image data on the center side, and provides it to the user who transmitted the image data.

一つの建造物を複数のカメラで複数の方向から撮影し、それらの撮影画像と予め用意された3次元CADデータとに基づいて、3次元化されて再現された建造物の画像を立体メガネを介して映す技術が開示されている(例えば、特許文献1参照)。   A single building is photographed from a plurality of directions with a plurality of cameras, and a three-dimensional reproduction of the building image that has been reproduced in three dimensions based on the photographed images and three-dimensional CAD data prepared in advance. A technique for projecting images is disclosed (for example, see Patent Document 1).

複数の画像における点対応からカメラ運動と相対的位置関係(3次元形状)とを復元する場合には、点対応は、まず「画像座標」で与えられるので、全てのカメラに対して統一的に扱うためには、この「画素(Pixel)座標」と「画像(Image)座標」間の1対1の写像関係を求めること(「カメラキャリブレーション」と呼ばれる)ができれば、「画素(Pixel)座標」と「画像(Image)座標」とを自由に変換できることになる。   When restoring camera motion and relative positional relationship (three-dimensional shape) from point correspondence in multiple images, point correspondence is first given by "image coordinates", so it is unified for all cameras. In order to handle it, if a one-to-one mapping relationship between the “pixel coordinates” and the “image coordinates” can be obtained (called “camera calibration”), the “pixel coordinates” can be obtained. "And" Image coordinates "can be freely converted.

そこで、複数の撮影画像から3次元形状データを作成する方法として、例えば全周囲360度からの多視点角度から、または、周囲に配した複数台のカメラから撮影した画像データを入力して、対象物の3次元形状データを作成するソフトウエアが各種開発されている。これらのソフトウエアでは、予めカメラを所定の位置や角度に配して撮影したカメラ位置情報が既知のカメラで撮影された複数枚の多視点画像を用いる方法や、非特許文献1に開示されているように、回転台に印刷された参照マーカーと、回転台に載せた対象物体とを一緒に撮影した複数枚のカメラ画像から、撮影時のカメラ位置を自動計算する方法がある。   Therefore, as a method for creating three-dimensional shape data from a plurality of photographed images, for example, by inputting image data photographed from a multi-viewpoint angle from 360 degrees all around or from a plurality of cameras arranged around the object, Various software for creating three-dimensional shape data of an object has been developed. In these softwares, a method using a plurality of multi-viewpoint images captured by a camera whose camera position information is previously captured with a camera placed at a predetermined position or angle, or disclosed in Non-Patent Document 1. As described above, there is a method of automatically calculating the camera position at the time of shooting from a plurality of camera images obtained by shooting together the reference marker printed on the turntable and the target object placed on the turntable.

そして、得られたカメラ位置情報と物体画像とから形状とテクスチャの3次元情報を自動計算し、その3次元情報をユーザが適宜修正してデジタルカメラで手持ち撮影した画像から3次元データを生成する。つまり、対象物を撮影した視点の異なる10〜20枚程度以上のJPEGフォーマットの撮影画像データを入力して、カメラ位置の計算、形状情報の生成、テクスチャ情報の生成などの一連の処理を実行して、3次元形状データを作成する。   Then, the three-dimensional information of the shape and texture is automatically calculated from the obtained camera position information and the object image, and the three-dimensional information is appropriately corrected by the user to generate the three-dimensional data from the image hand-held by the digital camera. . In other words, about 10 to 20 or more JPEG-format captured image data with different viewpoints for capturing an object are input, and a series of processes such as camera position calculation, shape information generation, and texture information generation are executed. 3D shape data is created.

更に詳述すると下記(1)〜(3)の手順により3次元形状データを得る。
(1)カメラ位置の計算を行う場合では、例えば、座標系におけるカメラの3次元位置パラメータ(回転成分α,β,γと平行移動成分(x、y、z)をHough変換などに基づいて計算する。つまり、撮影された画像から、参照マーカーを抽出し、抽出された参照マーカーの任意の3点と、あらかじめ登録されている参照マーカー中の任意の3点の位置関係を組合せて決定される連立方程式を解くことにより、位置パラメータを計算する。
(2)形状情報の生成では、単色の背景紙などを使用して対象を撮影し、指定した背景の色情報を用いて物体と背景を分離し、対象物のシルエット(輪郭)の抽出を行う。
(3) 次に、カメラの位置情報と対象物の2次元輪郭情報に基づいて、3次元ボクセル空間へのボーティング(投票)処理により、3次元形状を再構成し、得られたボクセルデータから、ポリゴン(多角形)データへ変換し、三角ポリゴン表現形式やSSF形式など、3次元形状データとして出力する。
More specifically, three-dimensional shape data is obtained by the following procedures (1) to (3).
(1) When calculating the camera position, for example, the three-dimensional position parameters of the camera in the coordinate system (rotation components α, β, γ and translation components (x, y, z)) are calculated based on the Hough transform or the like. That is, a reference marker is extracted from the photographed image, and is determined by combining any three points of the extracted reference marker and any three points in the reference marker registered in advance. The position parameters are calculated by solving the simultaneous equations.
(2) In the generation of shape information, an object is photographed using a monochrome background paper or the like, the object and the background are separated using the specified background color information, and the silhouette (outline) of the object is extracted. .
(3) Next, based on the position information of the camera and the two-dimensional outline information of the object, a three-dimensional shape is reconstructed by voting (voting) processing to the three-dimensional voxel space, and from the obtained voxel data And converted into polygon (polygon) data, and output as three-dimensional shape data such as a triangular polygon representation format and an SSF format.

特開2004−021848号広報JP 2004-021848 PR

「デジタルカメラ画像から簡単に3次元データを生成するソフトウエア技術」"Software technology for easily generating 3D data from digital camera images" SANYO TECHNICAL REVIEW COL.35 NO.1 JUN.2003SANYO TECHNICICAL REVIEW COL. 35 NO. 1 JUN. 2003

しかしながら、上記特許文献1などに開示の技術では、ユーザ(個人)が立体コンテンツを閲覧したい場合はあらかじめ設けられた観察用屋内の壁面に画像を投影し、立体メガネを装着してみる必要があり、しかも、ユーザが、希望する立体コンテンツを得たい場合には、ユーザが見たい部分を指定し、システムの装置を介して必要な撮影画像を撮影させ、複数の撮影画像を用意させる必要があった。   However, with the technology disclosed in Patent Document 1 and the like, when a user (individual) wants to view stereoscopic content, it is necessary to project an image on a wall surface for observation provided in advance and wear stereoscopic glasses. In addition, when the user wants to obtain the desired stereoscopic content, it is necessary to specify a portion that the user wants to view, to shoot a necessary captured image via the system device, and to prepare a plurality of captured images. It was.

また、非特許文献1に開示のように自動撮影機から3次元データを自動作成する場合は、周囲360度から多数枚の画像やアクティブスキャン画像などを撮影する360度撮影台や専用撮影機を必要とするので、ユーザは、専用撮影機の設置場所まで赴いて写真を撮影する必要があるが、ユーザが立体コンテンツとして所望する既存の建造物等を360度撮影するためには大掛かりな準備が必要となり経済性や時間的観点から現実的ではないという問題点があった。また、写真画像から3次元データを生成するには、上記(1)のカメラ位置の計算を行う必要があり、複雑な計算を必要とし、その結果についても専門家による調整作業が必要であるという不都合があった。   In addition, as disclosed in Non-Patent Document 1, when automatically creating three-dimensional data from an automatic photographing machine, a 360 degree photographing stand or a special photographing machine for photographing a large number of images, active scan images, etc. from 360 degrees around. Since it is necessary, the user needs to go to the place where the dedicated camera is installed and take a picture. However, in order to take a 360-degree image of an existing building or the like desired by the user as a stereoscopic content, a large preparation is required. There was a problem that it was necessary and was not realistic from the viewpoint of economy and time. Further, in order to generate three-dimensional data from a photographic image, it is necessary to perform the calculation of the camera position of (1) above, which requires complicated calculation, and the result also requires adjustment work by an expert. There was an inconvenience.

また、上述した全周囲360度からの多視点角度から、または、周囲に配した複数台のカメラから撮影した画像データを入力して、対象物の3次元形状データを作成する方法によれば、カメラ位置を入力すればよいので上記(1)の不都合は生じないが、ユーザが立体コンテンツとして所望する既存の建造物等を360度撮影するためには全周を撮影するために複数台のカメラを配設する必要があり、建造物等の大きさや立地条件(地形や立ち木等の障害物の存在)により必要数のカメラを配設できない場合や、必要数のカメラを揃えてカメラを配設するための費用が嵩むといった不都合があった。   In addition, according to the method of creating the three-dimensional shape data of the object by inputting image data taken from a plurality of viewing angles from 360 degrees around the above-mentioned or from a plurality of cameras arranged in the surroundings, Although it is sufficient to input the camera position, the problem (1) does not occur. However, in order to photograph an existing building or the like desired by the user as a three-dimensional content at 360 degrees, a plurality of cameras are used to photograph the entire circumference. If the required number of cameras cannot be installed due to the size of the building or the location conditions (the presence of obstacles such as terrain or standing trees), or the cameras are arranged with the required number of cameras. There was an inconvenience that the cost for doing so increased.

上記課題を解決するために、請求項1に記載の発明は、撮像画像を記憶する記憶手段と、 対象物を撮影するための撮影位置、または、この対象物を撮影するための撮影方位の少なくとも一方を受信する第1の受信手段と、この第1の受信手段によって受信された撮影位置、または、撮影方位の少なくとも一方に沿って撮像された前記対象物の撮像画像を前記記憶手段から読み出す読出手段と、この読出手段によって読み出された撮像画像を、前記対象物を立体的に表示させるためのデータを生成するセンターへ送信する送信手段と、 この送信手段による前記対象物の画像の送信に応答して、前記センターから送信される前記対象物を立体的に表示させるためのデータを受信する第2の受信手段と、この第2の受信手段によって受信されたデータに基づいて、前記対象物を立体的に表示する立体表示手段と、を備えることを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 includes at least a storage unit that stores a captured image, a shooting position for shooting a target object, or a shooting direction for shooting the target object. A first receiving means for receiving one of them, and a readout for reading out the captured image of the object taken along at least one of the photographing position or the photographing orientation received by the first receiving means from the storage means Means for transmitting the captured image read by the reading means to a center for generating data for displaying the object three-dimensionally, and for transmitting the image of the object by the transmitting means. In response, a second receiving means for receiving the three-dimensional display of the object transmitted from the center, and a data received by the second receiving means. And a stereoscopic display means for stereoscopically displaying the object based on the data.

また、請求項2に記載の発明は、上記請求項1記載の発明において、前記第1の受信手段によって受信された対象物の撮影位置、または、撮影方位の少なくとも一方に従って、前記対象物を撮像する撮像手段を更に備え、前記記憶手段は、この撮像手段によって撮像された前記対象物の撮像画像を記憶することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the object is imaged in accordance with at least one of a photographing position or a photographing direction of the object received by the first receiving means. The storage means stores a captured image of the object imaged by the imaging means.

また、請求項3に記載の発明は、上記請求項2記載の発明において、前記第1の受信手段は、前記対象物の撮影位置を受信するとともに、当該装置の現在位置を取得する現在位置取得手段と、前記対象物の撮影位置と前記現在位置取得手段によって取得された現在位置とを比較する比較手段と、この比較手段による比較の結果、前記対象物の撮影位置と前記現在位置とがほぼ一致すると、その旨を報知する報知手段と、を更に備えることを特徴とする。   The invention according to claim 3 is the invention according to claim 2, wherein the first receiving means receives the photographing position of the object and obtains the current position of the device. Means for comparing the shooting position of the object and the current position acquired by the current position acquisition means, and as a result of the comparison by the comparison means, the shooting position of the object and the current position are approximately And a notification means for notifying the fact that they coincide with each other.

また、上記課題を解決するために、請求項4に記載の発明は、対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースと、撮影端末と、前記データベースに未だ記憶されていない前記対象物の部分要素があることを前記撮影端末に通知する通知手段と、この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、この生成手段によって生成された立体コンテンツを前記撮影端末に送信する手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 4 is still in the database for storing a plurality of subelements as a basis for generating the three-dimensional content of the object, the photographing terminal, and the database. Notification means for notifying the photographing terminal that there is a subelement of the object that is not stored, and a captured image of the object that is photographed and transmitted by the photographing terminal in response to a notification by the notification means Receiving means, extracting means for extracting subelements from the captured image of the object received by the receiving means, subelements extracted by the extracting means, and a plurality of subelements stored in the database And determining means for determining whether or not the three-dimensional content of the object can be generated, and determining that the three-dimensional content can be generated by the determining means. If that, a generation unit for generating stereoscopic contents of the object, characterized in that it comprises a means, for transmitting a stereoscopic content generated by the generation unit to the imaging device.

また、上記課題を解決するために、請求項5に記載の発明は、対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースにおいて、未だ記憶されていない部分要素が存在することを通信ネットワークを介して撮影端末に通知する通知手段と、この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 5 is the database for storing a plurality of partial elements that are the basis for generating the three-dimensional content of the target object. Notification means for notifying the photographing terminal of the presence via the communication network, and receiving means for receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification by the notifying means. The extraction unit extracts a partial element from the captured image of the object received by the reception unit, the partial element extracted by the extraction unit, and a plurality of partial elements stored in the database. A determination unit that determines whether or not the three-dimensional content can be generated, and when the determination unit determines that the three-dimensional content can be generated, Characterized in that it comprises generation means for generating a three-dimensional content elephant product, the.

また、上記課題を解決するために、請求項6に記載の発明は、対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースにおいて、未だ記憶されていない部分要素が存在することを通信ネットワークを介して撮影端末に通知する通知ステップと、この通知ステップでの通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信ステップと、この受信ステップにて受信された前記対象物の撮像画像から部分要素を抽出する抽出ステップと、この抽出ステップにて抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断ステップと、この判断ステップにて前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成ステップと、を含むことを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 6 is the database for storing a plurality of partial elements that are the basis for generating the three-dimensional content of the target object. A notification step of notifying the imaging terminal of the presence via the communication network, and a reception step of receiving a captured image of the object that is captured and transmitted by the imaging terminal in response to the notification in the notification step An extraction step of extracting a partial element from the captured image of the object received in the reception step, and the partial element extracted in the extraction step and a plurality of partial elements stored in the database. A determination step for determining whether or not the three-dimensional content of the object can be generated, and the three-dimensional content can be generated in this determination step. Judging, characterized in that it comprises a a generation step of generating a three-dimensional content of the object.

本発明によれば、必要な部分要素の取得に係る負担を軽減させつつ、ユーザに対し所望する立体コンテンツを生成し提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the desired three-dimensional content can be produced | generated and provided with respect to a user, reducing the burden concerning acquisition of a required partial element.

本発明の立体コンテンツ提供サービスシステムの構成例を示す図である。It is a figure which shows the structural example of the three-dimensional content provision service system of this invention. 立体コンテンツ提供サービスシステムにおける立体コンテンツ提供サービスの概要を示すプロセスチャートである。It is a process chart which shows the outline | summary of the three-dimensional content provision service in a three-dimensional content provision service system. 立体映像表示機能を備えたカメラ付携帯電話機の電子回路の構成例を示すブロック図である。It is a block diagram which shows the structural example of the electronic circuit of the mobile telephone with a camera provided with the three-dimensional video display function. 図1に示したサーバーの構成例を示すブロック図である。It is a block diagram which shows the structural example of the server shown in FIG. 図1、図4に示したデータベースの構成例を示す図である。It is a figure which shows the structural example of the database shown in FIG. 1, FIG. 立体コンテンツ取得サービス選択時の携帯電話機の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the mobile telephone at the time of 3D content acquisition service selection. 立体コンテンツ提供サービス開始時に携帯電話機1に表示されるサービス開始情報等の一例を示す図である。It is a figure which shows an example of the service start information etc. which are displayed on the mobile telephone 1 at the time of a three-dimensional content provision service start. 立体コンテンツ提供サービス時のサーバー4の動作例を示す図である。It is a figure which shows the operation example of the server 4 at the time of a three-dimensional content provision service.

図1は、本発明を適用した立体コンテンツ提供サービスシステム100の構成例を示す図であり、立体コンテンツ提供サービスシステム100は、立体画像表示機能を備えた表示装置としてのカメラ付携帯電話機1(以下、「携帯電話機1」と記す)、複数のセルラー基地局2(以下、「基地局2」と記す)、建築物や建造物等の立体コンテンツ(立体画像データ)や、この立体コンテンツを生成するために用いられる部分要素を含むものとして、建築物や建造物などの撮影対象の撮影画像とその撮影方位や撮影位置等のカメラ情報を複数格納してなるデータベース4を備えたサーバー3から構成され、基地局2とサーバー3はインターネット6等の通信ネットワーク(以下、「インターネット6」と記す)を介して接続し、携帯電話機1と基地局2はセルラー無線通信方式により接続可能に構成されている。なお、符号5は立体コンテンツ提供サービスの運営者によって運営される立体コンテンツ提供センター(以下、「センター5」と記す)を意味し、符号7はユーザが要求する立体コンテンツの対象の一例である建造物を示す。   FIG. 1 is a diagram showing a configuration example of a stereoscopic content providing service system 100 to which the present invention is applied. The stereoscopic content providing service system 100 is a mobile phone with camera 1 (hereinafter referred to as a display device having a stereoscopic image display function). , “Cell phone 1”), a plurality of cellular base stations 2 (hereinafter referred to as “base station 2”), 3D contents (stereoscopic image data) such as buildings and buildings, and the 3D contents are generated. The server 3 includes a database 4 that stores a plurality of camera information such as shooting images and shooting directions and shooting positions of shooting objects such as buildings and buildings. The base station 2 and the server 3 are connected via a communication network such as the Internet 6 (hereinafter referred to as “Internet 6”). Chikyoku 2 is configured to be connected by a cellular radio communication system. Reference numeral 5 denotes a three-dimensional content providing center (hereinafter referred to as “center 5”) operated by an operator of the three-dimensional content providing service, and reference numeral 7 denotes a structure that is an example of the target of the three-dimensional content requested by the user. Showing things.

図2は、図1の立体コンテンツ提供サービスシステム100における立体コンテンツ提供サービスの概要を示すプロセスチャートである。図2で、まず、ユーザが携帯電話機1を起動して、各種サービスのうち立体コンテンツ提供サービスを選択し、ユーザ登録(ユーザ登録済みの場合は登録番号等の入力)を行う(プロセスP1)。   FIG. 2 is a process chart showing an overview of the stereoscopic content providing service in the stereoscopic content providing service system 100 of FIG. In FIG. 2, first, the user activates the mobile phone 1, selects a three-dimensional content providing service from among various services, and performs user registration (input of a registration number or the like if the user has been registered) (process P1).

センター5(のサーバー3)から携帯電話機1に送られる建築物や建造物(以下、「対象物」と記す)の一覧から立体コンテンツの購入を予定する建造物等(対象物)を選択する(プロセスP2)。なお、データベース4には建築物や建造物だけでなく、設備や、装置や標本等の撮影画像を対応付けた撮影画像識別情報を登録するようにしてもよい。   From the list of buildings and buildings (hereinafter referred to as “objects”) sent from the center 5 (server 3) to the mobile phone 1, a building or the like (object) scheduled to purchase 3D content is selected (object). Process P2). The database 4 may register not only buildings and buildings but also photographed image identification information in which photographed images of equipment, devices, specimens, and the like are associated.

撮影対象を選択すると、センター5のサーバー3は、その対象物について立体コンテンツを生成するために必要な部分要素を得るため、データベース4に未だ記憶されていない前記対象物の部分要素があることを、その対象物が存在する位置情報(座標データ)、その対象物の画像を撮影するための撮影方位、および撮影位置(座標データ)の一覧を、ユーザの携帯電話1にインターネット6および基地局2を介して送信するので、携帯電話機1はそれらのデータをダウンロードする(プロセスP3)。   When the photographing target is selected, the server 3 of the center 5 obtains a partial element of the target object that is not yet stored in the database 4 in order to obtain a partial element necessary for generating the stereoscopic content for the target object. A list of position information (coordinate data) where the object exists, a shooting direction for shooting an image of the object, and a shooting position (coordinate data) is displayed on the user's mobile phone 1 on the Internet 6 and the base station 2. Mobile phone 1 downloads the data (process P3).

登録ユーザは、携帯電話1に表示される撮影可能な対象物のなかから所望の対象物を選択し、その対象物を複数枚撮影してメモリに記憶すると、携帯電話機1は立体コンテンツを提供するために不足している撮影方位および撮影位置に基づいて撮像された画像、および/または、これらに基づいてメモリを検索してヒットした画像と、その画像の撮影方位および撮影位置等のカメラ位置情報とをセンター5にアップロードする(プロセスP4)。   When the registered user selects a desired object from among the objects that can be photographed displayed on the mobile phone 1, and photographs a plurality of the objects and stores them in the memory, the cellular phone 1 provides stereoscopic content. Images taken on the basis of the shooting direction and shooting position that are insufficient for this purpose, and / or images that have been hit by searching the memory based on these, and camera position information such as the shooting direction and shooting position of the image Are uploaded to the center 5 (process P4).

センター5では、立体コンテンツを生成するのに必要とする撮影画像が揃ったか否か判断し、揃ったと判断すると、その旨を、画像を提供したユーザ(一人もしくは複数)の携帯電話機1に通知する(プロセスP5)。   The center 5 determines whether or not the captured images necessary for generating the three-dimensional content are prepared, and if it is determined that the images are prepared, the center 5 notifies the mobile phone 1 of the user (one or more) who provided the images to that effect. (Process P5).

通知を受けたユーザが、その立体コンテンツの具体的な提供として、立体画像データの提供を受けるか、ミニチュアの提供を受けるかの別を、携帯電話機1を操作して選択すると(プロセスP6)、選択内容が携帯電話機1から基地局2、インターネット6を介してサーバー3に送られ、ユーザの希望に沿った立体コンテンツが提供される。このとき、サーバー3は、画像を提供したユーザは無料提供(もしくは割引価格)、それ以外のユーザは通常価格として課金する(プロセスP7)。   When the user who has received the notification selects whether to receive the provision of stereoscopic image data or the provision of miniature as a specific provision of the stereoscopic content by operating the mobile phone 1 (process P6), The selected content is sent from the mobile phone 1 to the server 3 via the base station 2 and the Internet 6 to provide stereoscopic content according to the user's wishes. At this time, the server 3 charges the user who provided the image free of charge (or a discount price), and charges the other users as a normal price (process P7).

なお、変形例として、上記プロセスP4を、「ユーザが携帯電話機1を所持して移動している際、ユーザが撮影位置に付近に近づくと携帯電話機1がその旨を報知し、ユーザはガイダンスにしたがって撮影し、基地局2、およびインターネット6を介してセンター5のサーバー3に撮影画像、撮影方位、撮影位置などのカメラ情報をセンター5にアップロードする」ように構成してもよい。   As a modified example, the process P4 is described as follows: “When the user moves with the mobile phone 1, the mobile phone 1 notifies the user when the user approaches the shooting position, and the user gives guidance. Therefore, a configuration may be adopted in which a photograph is taken and camera information such as a photographed image, a photographing orientation, and a photographing position is uploaded to the center 5 via the base station 2 and the Internet 6 to the server 3 of the center 5.

図3は、図1に示した携帯電話機1の内部構成例を示すブロック図であり、携帯電話機3は3次元画像表示可能に構成されており、無線送受信部11、無線信号処理部12、制御部13、キー入力部14、ドライバ17、表示部18、加入者情報記憶部19、ROM等からなるプログラム格納メモリ20、DRAM等からなる一時記憶メモリ21、記録部22、音声信号処理部23、スピーカ24、マイクロフォン25、ドライバ26、スピーカ27に加え、撮像部15および画像データ処理部16、およびカメラ位置情報(撮影位置および撮影方位)を取得するカメラ位置取得部28を備えている。撮像部15および画像データ処理部16は本発明の撮像系を構成する。   FIG. 3 is a block diagram showing an example of the internal configuration of the mobile phone 1 shown in FIG. 1. The mobile phone 3 is configured to be capable of displaying a three-dimensional image, and includes a radio transmission / reception unit 11, a radio signal processing unit 12, and a control. 13, key input unit 14, driver 17, display unit 18, subscriber information storage unit 19, program storage memory 20 including ROM, temporary storage memory 21 including DRAM, recording unit 22, audio signal processing unit 23, In addition to the speaker 24, the microphone 25, the driver 26, and the speaker 27, the imaging unit 15 and the image data processing unit 16, and a camera position acquisition unit 28 that acquires camera position information (shooting position and shooting direction) are provided. The imaging unit 15 and the image data processing unit 16 constitute an imaging system of the present invention.

無線送受信部11は無線によりアンテナ111を介して音声信号やデータを送受する。無線信号処理部12は無線送受信部111で受信した音声信号やデータの復調処理、無線送受信部111から送信する音声信号やデータの変調処理などの無線通信に必要な処理を行う。そして、立体コンテンツ取得モード時には、通信制御プログラムの制御によりインターネット6と接続すると、無線送受信部11を介してセンター5のサーバー3に撮像画像およびこの撮像画像の撮影方位や撮影位置等を送信できる。また、サーバー3から送信される、立体コンテンツを生成するのに必要な対象物の撮像画像の撮影方位や撮影位置、立体画像データの受信が可能である。   The wireless transmission / reception unit 11 transmits and receives audio signals and data via the antenna 111 wirelessly. The wireless signal processing unit 12 performs processing necessary for wireless communication such as demodulation processing of audio signals and data received by the wireless transmission / reception unit 111 and modulation processing of audio signals and data transmitted from the wireless transmission / reception unit 111. In the three-dimensional content acquisition mode, when connected to the Internet 6 under the control of the communication control program, the captured image and the shooting direction and the shooting position of the captured image can be transmitted to the server 3 of the center 5 via the wireless transmission / reception unit 11. In addition, it is possible to receive the shooting direction and shooting position of the captured image of the target object necessary for generating the stereoscopic content and the stereoscopic image data transmitted from the server 3.

制御部13は、プログラム格納メモリ20に格納されている制御プログラム及び動作プログラムにより、図3に示した各内部構成要素の動作を制御する。動作プログラムには、通信制御プログラムや、撮像制御プログラム、画像処理プログラム、モード選択プログラム、立体コンテンツ提供サービス用の携帯電話機側動作プログラム、対象物画像を立体的に表示させるための画像表示プログラム等が含まれている。また、通信制御プログラムはインターネット6との接続制御プログラムを含んでいる。   The control unit 13 controls the operation of each internal component shown in FIG. 3 by the control program and the operation program stored in the program storage memory 20. The operation program includes a communication control program, an imaging control program, an image processing program, a mode selection program, a mobile phone side operation program for a stereoscopic content providing service, an image display program for displaying an object image in three dimensions, and the like. include. The communication control program includes a connection control program with the Internet 6.

キー入力部14は、電源キー、テンキー、送受信開始キー、送受信停止キー、カーソルキー、取り消しキー、決定キー、シャッターキー等の各種キーを含みこれらのキーが操作されると対応する信号が制御部13に送出される。   The key input unit 14 includes various keys such as a power key, a numeric keypad, a transmission / reception start key, a transmission / reception stop key, a cursor key, a cancel key, an enter key, and a shutter key. When these keys are operated, a corresponding signal is transmitted to the control unit. 13 is sent out.

撮像部15は、撮像素子、信号変換部、撮像タイミング制御部や撮影補助光源等を含む撮像信号系(図示せず)を有しており、撮像レンズを経由し、撮像レンズの撮像光軸後方に配置された撮像素子に入射した被写体光像は撮像素子によって光電変換され撮像信号(アナログ)として出力される。撮像素子の出力信号は信号変換部で相関二重サンプリングおよびゲイン調整され、A/D変換によりデジタル信号に変換される。A/D変換された撮像信号は所定の周期で画像データ処理部16に送られる。   The imaging unit 15 has an imaging signal system (not shown) including an imaging element, a signal conversion unit, an imaging timing control unit, an imaging auxiliary light source, and the like, and passes through the imaging lens and is behind the imaging optical axis of the imaging lens. The subject light image incident on the image pickup device arranged at is photoelectrically converted by the image pickup device and output as an image pickup signal (analog). The output signal of the image sensor is correlated double sampling and gain adjustment by a signal conversion unit, and converted to a digital signal by A / D conversion. The A / D converted image signal is sent to the image data processing unit 16 at a predetermined cycle.

画像データ処理部16は、撮像部15から出力されたデジタル信号(画像データ)に対して画像補間処理及びγ補正処理を含むカラープロセス処理を行ってデジタル値の輝度信号Y及び色差信号Cb、Crを生成し、DRAM等の一時記憶メモリ21にバスを介してDMA転送する。   The image data processing unit 16 performs a color process process including an image interpolation process and a γ correction process on the digital signal (image data) output from the imaging unit 15 to obtain a digital luminance signal Y and color difference signals Cb, Cr. And DMA-transferred to a temporary storage memory 21 such as a DRAM via a bus.

ドライバ17は表示部18を駆動し、画像及びデータを表示させる。また、加入者情報記憶部19は他の電話機を呼び出すための電話番号やユーザ(登録者)のID等、プロフィールデータを格納する。実施例では立体画像表示は3次元画像表示プログラムで行うものとしたが、ドライバ17および表示部18として3次元画像表示可能なハードウエアを用いるようにしてもよい。   The driver 17 drives the display unit 18 to display an image and data. The subscriber information storage unit 19 stores profile data such as a telephone number for calling another telephone and a user (registrant) ID. In the embodiment, the stereoscopic image display is performed by a three-dimensional image display program. However, hardware capable of displaying a three-dimensional image may be used as the driver 17 and the display unit 18.

プロググラム格納メモリ20は、制御部13の制御プログラムおよび動作プログラムが記録されているメモリであり、無線通信端末として必要な各種データを記憶し、且つ制御部13が動作する上で必要なプログラムやデータを記憶する。例えば、制御プログラムや、モード選択プログラム、各種モード時の動作プログラム、立体コンテンツ提供サービス用の携帯電話機側動作プログラム、上記画像表示プログラム等の動作プログラム(アプリケーションプログラム)等を記憶している。これらのプログラムは、選択されたモードの処理段階に応じて呼び出され制御部13によって実行される。また、動作プログラムにはモード選択プログラムが含まれている。   The program storage memory 20 is a memory in which a control program and an operation program of the control unit 13 are recorded. The program storage memory 20 stores various data necessary as a wireless communication terminal, and programs necessary for the operation of the control unit 13 Store the data. For example, a control program, a mode selection program, an operation program in various modes, a mobile phone side operation program for a stereoscopic content providing service, an operation program (application program) such as the image display program, and the like are stored. These programs are called according to the processing stage of the selected mode and executed by the control unit 13. The operation program includes a mode selection program.

一時記憶メモリ21はDRAM等のメモリで構成され、無線通信端末として必要な各種データを記憶し、且つ制御部13が動作する上で必要なプログラムやデータを記憶する。また、一時記憶メモリ21は撮影モードおよび立体コンテンツ取得モードでは、画像データ処理部16からの画像データを一時記憶するバッファメモリや、各種プログラムによるデータ処理に必要なワークメモリとして用いられる。   The temporary storage memory 21 is composed of a memory such as a DRAM, stores various data necessary as a wireless communication terminal, and stores programs and data necessary for the operation of the control unit 13. The temporary storage memory 21 is used as a buffer memory for temporarily storing image data from the image data processing unit 16 and a work memory necessary for data processing by various programs in the shooting mode and the stereoscopic content acquisition mode.

立体コンテンツ取得モードにおいて、一時記憶メモリ21には立体的に対象物の画像データを表示するのに必要なワーク領域が確保される。また、センター5から若しくは撮影時に取得した撮影位置および撮影方位や、撮影時のカメラ情報等を保持しておくカメラ情報等保持領域も確保される。   In the three-dimensional content acquisition mode, the temporary storage memory 21 has a work area necessary for displaying the image data of the target object three-dimensionally. In addition, a camera information holding area for holding the shooting position and shooting direction acquired from the center 5 or at the time of shooting, camera information at the time of shooting, and the like is also secured.

記録部22は無線通信端末として必要な各種データや撮影画像データおよびその撮影が雑煮に対応する撮影方位や撮影位置を記憶する。また、センター5から受信した立体コンテンツ(立体画像データ)やプログラムを記憶することもできる。携帯電話機1の電源スイッチがオフの場合でも、記録部22には電源が供給され記憶内容が維持される。   The recording unit 22 stores various data necessary for the wireless communication terminal, captured image data, and a shooting direction and a shooting position corresponding to the shooting of the data. In addition, stereoscopic content (stereoscopic image data) and programs received from the center 5 can be stored. Even when the power switch of the mobile phone 1 is off, the storage unit 22 is supplied with power and the stored contents are maintained.

音声信号処理部23は、マイクロフォン24から入力された音声信号を符号化処理したり、無線信号処理部12から出力された信号に基づいて音声信号を復号してスピーカ25から出力したりする。ドライバ26は、スピーカ27を駆動するためのドライバである。   The audio signal processing unit 23 encodes the audio signal input from the microphone 24, decodes the audio signal based on the signal output from the wireless signal processing unit 12, and outputs the audio signal from the speaker 25. The driver 26 is a driver for driving the speaker 27.

また、カメラ位置取得部28は、よく知られているGPS受信測位装置や3次元加速度センサ、傾斜センサ、電子コンパス等、カメラの位置や角度、姿勢を検出するセンサ計測装置などからなり、受信したGPS情報や電子コンパスから撮影位置および撮影方位を取得する。   The camera position acquisition unit 28 includes a well-known GPS reception positioning device, a three-dimensional acceleration sensor, a tilt sensor, an electronic compass, and other sensor measurement devices that detect the position, angle, and orientation of the camera. The shooting position and shooting direction are acquired from GPS information and an electronic compass.

図4は、図1に示したサーバー(サーバーコンピュータ)3の構成例を示すブロック図である。サーバー3は、制御部31、一時記憶メモリ32、プログラム記憶メモリ33、送受信部34、カメラ位置情報解析部35、保存メモリ36、表示部37、操作部38およびデータベース4を備えている。なお、表示部37は必須ではない。また、図示していないが、ミニチュア製作用(図示せず)のCAD等のデータをCD等の記録媒体に記録する媒体記録装置を設けるようにしてもよい。   FIG. 4 is a block diagram showing a configuration example of the server (server computer) 3 shown in FIG. The server 3 includes a control unit 31, a temporary storage memory 32, a program storage memory 33, a transmission / reception unit 34, a camera position information analysis unit 35, a storage memory 36, a display unit 37, an operation unit 38, and a database 4. The display unit 37 is not essential. Although not shown, a medium recording apparatus for recording data such as CAD for miniature production (not shown) on a recording medium such as a CD may be provided.

制御部31は、プログラム格納メモリ33に格納されている制御プログラム及び動作プログラムにより、図4に示した各内部構成要素の動作を制御する。動作プログラムには、通信制御プログラムや、立体コンテンツ生成プログラム、利用者登録および認証プログラム、課金プログラム等が含まれている。また、通信制御プログラムはインターネット6との接続制御プログラムを含んでいる。   The control unit 31 controls the operation of each internal component shown in FIG. 4 by a control program and an operation program stored in the program storage memory 33. The operation program includes a communication control program, a three-dimensional content generation program, a user registration and authentication program, a billing program, and the like. The communication control program includes a connection control program with the Internet 6.

プログラム格納メモリ33は、制御部31の制御プログラムおよび動作プログラムが記録されているメモリであり、サーバー3として機能するための各種制御用データを記憶し、且つ制御部13が動作する上で必要なプログラムやデータを記憶する。例えば、制御プログラムや、立体コンテンツ提供サービス用のサーバー側動作プログラム、つまり、立体画像データ生成プログラム、ミニチュア製作用データ作成プログラム、利用者登録および認証プログラム、課金プログラム等のアプリケーションプログラムを記憶している。これらのプログラムは、適時、一時記憶メモリ32に呼び出され制御部31によって実行される。また、サーバー3にカメラ位置情報解析部35を設ける代わりに、画像解析プログラムを動作プログラムの一つとしてプログラム格納メモリ33に記憶するようにしてもよい。   The program storage memory 33 is a memory in which a control program and an operation program of the control unit 31 are recorded, stores various control data for functioning as the server 3, and is necessary for the control unit 13 to operate. Store programs and data. For example, a control program and a server-side operation program for a stereoscopic content providing service, that is, a stereoscopic image data generation program, a miniature production action data creation program, a user registration and authentication program, an application program such as a billing program, are stored. . These programs are called to the temporary storage memory 32 and executed by the control unit 31 as appropriate. Further, instead of providing the camera position information analysis unit 35 in the server 3, an image analysis program may be stored in the program storage memory 33 as one of operation programs.

なお、立体画像データ生成プログラムによるデータ生成は、背景技術の項で述べた、(1)〜(3)の手順のうち、(1)のカメラ位置は撮影時に取得されているので既知であるから、カメラ位置を既知として上述の(2)、(3)の手順によることができる。つまり、撮影画像を対象物画像と背景画像とに分離し、対象物画像のシルエット(輪郭)の抽出を行い、次に、カメラの位置情報と上記抽出した対象物の輪郭情報とを部分要素として、複数の撮影位置、及び、撮影方位の部分要素に基づいて立体画像データを生成する。
尚、撮影位置、及び、撮影方位と上記抽出した対象物の輪郭情報に基づく立体画像データの生成方法は、非特許文献1に記載の技術等公知の技術を適用することができる。
The data generation by the stereoscopic image data generation program is known because the camera position of (1) is acquired at the time of photographing among the procedures (1) to (3) described in the background section. The procedure (2) and (3) described above can be performed with the camera position known. That is, the photographed image is separated into the object image and the background image, the silhouette (contour) of the object image is extracted, and then the position information of the camera and the extracted contour information of the object are used as partial elements. Stereo image data is generated based on a plurality of shooting positions and subelements of shooting directions.
Note that a known technique such as the technique described in Non-Patent Document 1 can be applied to the method of generating stereoscopic image data based on the shooting position, the shooting direction, and the extracted contour information of the object.

一時記憶メモリ32はRAM等のメモリで構成され、制御部31が動作する上で必要なプログラムやデータを記憶する。また、一時記憶メモリ32はデータベース4や送受信部からの画像データを一時記憶するバッファメモリや、各種プログラムによるデータ処理に必要なワークメモリとして用いられる。   The temporary storage memory 32 is configured by a memory such as a RAM, and stores programs and data necessary for the operation of the control unit 31. The temporary storage memory 32 is used as a buffer memory for temporarily storing image data from the database 4 and the transmission / reception unit, and a work memory necessary for data processing by various programs.

送受信部34は、通信制御プログラムの制御によりインターネット6(および基地局2)を介して携帯電話機1との間でデータの送受を行う。例えば、携帯電話機1から送信される登録情報や認証情報、画像および撮影方位や撮影位置からなるカメラ情報を受信する。また、携帯電話機1に撮影に必要な情報や立体コンテンツ、課金データ等を送信する。   The transmission / reception unit 34 transmits / receives data to / from the mobile phone 1 via the Internet 6 (and the base station 2) under the control of the communication control program. For example, registration information and authentication information transmitted from the mobile phone 1, camera information including an image, a shooting direction, and a shooting position are received. In addition, information necessary for photographing, stereoscopic content, billing data, and the like are transmitted to the mobile phone 1.

カメラ位置情報解析部35はデータベース4に格納済みの対象物と関連付けられた複数の撮影画像から、上述の如く複数の部分要素を得、立体コンテンツ(立体画像データ)を生成できるか否かを各撮影画像の撮影方位および撮影位置を元に解析し、不足している場合は、生成に必要な撮影方位および撮影位置を出力する。なお、カメラ位置情報解析部35に代えて、同様の機能を果たす画像解析プログラムを携帯電話機1のプログラム格納メモリ20に格納しておき、ユーザによって対象が選択された場合に、制御部13がデータベース4に格納済みの画像で立体コンテンツ(立体画像データ)を生成できるか否を解析するようにしてもよい。
また、その撮影位置及び、撮影方位に基づいて、立体コンテンツ(立体画像データ)を作成するための撮像画像が揃ったか否かをカメラ位置情報解析部35で判定するように構成してもよい。
The camera position information analysis unit 35 obtains a plurality of partial elements from a plurality of photographed images associated with the objects already stored in the database 4 as described above, and determines whether or not stereoscopic content (stereoscopic image data) can be generated. Based on the shooting direction and shooting position of the shot image, the shooting direction and shooting position necessary for generation are output if there is a shortage. Note that, instead of the camera position information analysis unit 35, an image analysis program that performs the same function is stored in the program storage memory 20 of the mobile phone 1, and when the target is selected by the user, the control unit 13 sets the database. 4 may be analyzed to determine whether or not the stereoscopic content (stereoscopic image data) can be generated from the image already stored in 4.
Further, the camera position information analysis unit 35 may determine whether or not the captured images for creating the stereoscopic content (stereoscopic image data) are prepared based on the imaging position and the imaging orientation.

保存メモリ36は、ハードディスク装置等の大容量記装置からなり、立体コンテンツ提供サービスのユーザ情報および認証データを記憶した登録ファイルや、利用者別に提供したコンテンツの課金データを記録する課金ファイル等を格納する。
なお、本実施例ではデータベース4を格納するメモリを保存メモリ37とは別体としたが、データベース4を保存メモリ36に構築するようにしてもよい。
The storage memory 36 is composed of a large-capacity storage device such as a hard disk device, and stores a registration file storing user information and authentication data of a stereoscopic content providing service, a charging file for recording charging data of content provided for each user, and the like. To do.
In this embodiment, the memory for storing the database 4 is separate from the storage memory 37, but the database 4 may be constructed in the storage memory 36.

図5は、図1および図4に示したデータベース4の構成例を示す図であり、データベース4は、対象物識別情報41、対象物の位置情報(地図座標)42、立体コンテンツとして、対象物に対応付けた立体画像データを記憶した立体画像データ記憶領域48とのポインタである立体画像ポインタ43、対象物に対応付けられた複数の撮影画像の画像データを格納した複数の撮影画像データ記憶領域49とのポインタである撮影画像ポインタ44−1〜44−m、それらの画像の撮影方位データ45−1〜45−m、撮影位置データ46−1〜46−m、登録者識別情報(登録ファイルに登録された登録者識別情報と同じ識別情報)47等からなる対象物別撮影画像レコード40を複数個、検索可能に構築してなる。   FIG. 5 is a diagram illustrating a configuration example of the database 4 illustrated in FIGS. 1 and 4. The database 4 includes the object identification information 41, the position information (map coordinates) 42 of the object, and the object as three-dimensional content. A stereoscopic image pointer 43 that is a pointer to the stereoscopic image data storage area 48 that stores stereoscopic image data associated with the object, and a plurality of captured image data storage areas that store image data of a plurality of captured images associated with the object Photographic image pointers 44-1 to 44-m, which are pointers to 49, photographic orientation data 45-1 to 45-m, photographic position data 46-1 to 46-m, registrant identification information (registration file) A plurality of object-specific photographic image records 40 composed of 47 and the like are constructed so as to be searchable.

ある対象物について立体コンテンツが完成しない場合(つまり、立体画像データを生成するための部分要素が不足している場合)は、立体画像ポインタ43および立体画像データを生成するために不足している撮像画像の撮影画像ポインタ44−j、その画像の撮影方位データ45−j、撮影位置データ46―j(j=1〜m)には無効値(null)が記憶されている。また、対象物識別情報のみで撮影画像がない場合は、対象物識別情報以外のデータ記憶領域には無効値(null)が記憶される)。   When the stereoscopic content is not completed for a certain object (that is, when the partial elements for generating the stereoscopic image data are insufficient), the imaging is insufficient for generating the stereoscopic image pointer 43 and the stereoscopic image data. Invalid values (null) are stored in the photographed image pointer 44-j of the image, the photographing orientation data 45-j of the image, and the photographing position data 46-j (j = 1 to m). Further, when there is no captured image with only the object identification information, an invalid value (null) is stored in the data storage area other than the object identification information.

図6は、立体コンテンツ取得サービス選択時の携帯電話機1の動作例を示すフローチャートであり、携帯電話機1は制御プログラム、通信制御プログラム、画像処理プログラム、モード選択プログラム、および各種動作プログラムにより、選択されたモード動作(機能)を実行する。立体コンテンツ取得モード時の携帯電話機1の動作は制御プログラムの制御下で制御部13によってプログラム格納メモリ20から取り出され、一時記憶メモリ21の実行プログラム領域に記憶される立体コンテンツ提供サービス用の携帯電話機側動作プログラム、3次元画像表示プログラム等の動作プログラムに基づいて図示のステップに対応した動作を実行する。   FIG. 6 is a flowchart showing an operation example of the mobile phone 1 when the three-dimensional content acquisition service is selected. The mobile phone 1 is selected by a control program, a communication control program, an image processing program, a mode selection program, and various operation programs. Mode operation (function) is executed. The operation of the mobile phone 1 in the 3D content acquisition mode is taken out from the program storage memory 20 by the control unit 13 under the control of the control program, and stored in the execution program area of the temporary storage memory 21. An operation corresponding to the illustrated step is executed based on an operation program such as a side operation program or a three-dimensional image display program.

図6で、ユーザが、キー入力部14を操作して、携帯電話機1の各種アプリケーションサービスのうち立体コンテンツ提供サービスを選択すると、制御部13は無線信号処理部12および無線送受信部11を介して基地局2に「サービス選択通知」およびユーザ情報を送信する。基地局2に無線送信されたデータはインターネット6を介してセンター5宛送信される(以下、単に「センター5宛送信する」と記す)(ステップS1)。   In FIG. 6, when the user operates the key input unit 14 to select a three-dimensional content providing service among various application services of the mobile phone 1, the control unit 13 is connected via the wireless signal processing unit 12 and the wireless transmission / reception unit 11. “Service selection notification” and user information are transmitted to the base station 2. The data wirelessly transmitted to the base station 2 is transmitted to the center 5 via the Internet 6 (hereinafter simply referred to as “transmit to the center 5”) (step S1).

ステップS1での「サービス選択通知」等送信後、センター5(図1参照)からインターネット6および基地局2を介して送信される登録ユーザか否かの判定結果を調べ、登録されていない場合はステップS3に進み、登録されている場合はステップS4に進む(ステップS2)。   After transmission of “service selection notification” or the like in step S1, the determination result of whether or not the user is a registered user transmitted from the center 5 (see FIG. 1) via the Internet 6 and the base station 2 is checked. The process proceeds to step S3, and if registered, the process proceeds to step S4 (step S2).

ユーザがセンター5に登録されている場合は、ユーザは携帯電話機1の表示部18に表示される認証ガイドに従ってキー入力部14のキーを操作してパスワード等の認証情報の入力を行うので、制御部13は入力されたパスワード等の認証情報や携帯電話番号を無線信号処理部12および無線送受信部11を介してセンター5宛送信し、センター5での認証を待ち、認証がされるとステップS5に進む(ステップS3)。   When the user is registered in the center 5, the user operates the key of the key input unit 14 according to the authentication guide displayed on the display unit 18 of the mobile phone 1 to input authentication information such as a password. The unit 13 transmits the input authentication information such as a password and a mobile phone number to the center 5 via the wireless signal processing unit 12 and the wireless transmission / reception unit 11, waits for authentication at the center 5, and when authentication is performed, step S5 is performed. (Step S3).

ユーザがセンター5に登録されていない場合は、ユーザは携帯電話機1の表示部18に表示される登録ガイドに従ってキー入力部14のキーを操作して立体コンテンツ取得サービスのユーザ登録を行うので、制御部13は入力されたユーザ識別情報、パスワード等からなる認証情報、および携帯電話番号等の登録情報を無線信号処理部12および無線送受信部11を介してセンター5宛送信し、ステップS5に進む(ステップS4)。   When the user is not registered in the center 5, the user operates the keys of the key input unit 14 according to the registration guide displayed on the display unit 18 of the mobile phone 1 to perform user registration of the stereoscopic content acquisition service. The unit 13 transmits the input user identification information, authentication information including a password, and registration information such as a mobile phone number to the center 5 via the wireless signal processing unit 12 and the wireless transmission / reception unit 11, and proceeds to step S5 (step S5). Step S4).

制御部13は、登録若しくは認証がされた場合に登録済み通知若しくは認証済み通知と共にセンター5から送信される、サービス提供可能な対象物一覧データを無線送受信部11および無線信号処理部12を介して受け取り、表示部18に選択可能に一覧表示してユーザに選択を促す(ステップS5)。   The control unit 13 transmits, through the wireless transmission / reception unit 11 and the wireless signal processing unit 12, the service-provided target list data transmitted from the center 5 together with the registered notification or the authenticated notification when registration or authentication is performed. The list is displayed on the display unit 18 so as to be selectable, and the user is prompted to select (step S5).

ユーザが撮影対象を選択すると、制御部13は、センター5から送信される当該撮影対象物およびユーザの現在位置を示す地図データと、センター5が立体コンテンツを提供するのに必要な情報を無線送受信部11および無線信号処理部12を介して受け取り、一時記憶メモリ21に記憶する(ステップS6)。   When the user selects a shooting target, the control unit 13 wirelessly transmits and receives the shooting target object transmitted from the center 5 and map data indicating the current position of the user and information necessary for the center 5 to provide stereoscopic content. The data is received via the unit 11 and the wireless signal processing unit 12 and stored in the temporary storage memory 21 (step S6).

また、制御部13は、受け取った地図データを元にユーザの現在位置および対象物を含む地図(図7(a)参照)を表示部18に表示し(ステップS7)、ユーザの「情報閲覧」操作に応じて、撮影対象画像(ランドマークで示されている)を表示部18に表示すると共に、センター5が立体コンテンツを提供するために不足している撮影方位および撮影位置をその撮影対象画像の周囲に表示する(図7(b)参照)(ステップS8)。   Further, the control unit 13 displays a map (see FIG. 7A) including the current position of the user and the object based on the received map data (see FIG. 7A) on the display unit 18 (step S7), and the “information browsing” of the user. In response to the operation, a shooting target image (indicated by a landmark) is displayed on the display unit 18 and the shooting direction and shooting position that are insufficient for the center 5 to provide stereoscopic content are displayed. (See FIG. 7B) (step S8).

ユーザが撮影対象を、ガイダンスにしたがって、撮影位置から図示された撮影方位で対象物を撮影し、キー入力部14のキーを操作して記録指示を行うと、制御部13は、撮影画像と、カメラ位置取得部28で取得した撮影方位データおよび撮影位置データを記録部22に記録する。ユーザは、この撮影操作を必要な画像(つまり、立体コンテンツ生成に不足している画像)を撮影し終わるまで行う(ステップS9)。   When the user shoots an object to be imaged in accordance with the guidance from the shooting position in the illustrated shooting direction and operates the keys of the key input unit 14 to give a recording instruction, the control unit 13 The shooting direction data and shooting position data acquired by the camera position acquisition unit 28 are recorded in the recording unit 22. The user performs this photographing operation until photographing of a necessary image (that is, an image that is insufficient for generating the stereoscopic content) is finished (step S9).

制御部13は、ステップS6で取得した対象物の立体コンテンツの生成を行うために不足している撮影位置および撮影方位をキーとして、ステップS9で撮影した画像(記録部22に記録されている画像)を検索し、ヒットした画像およびその画像の撮影位置、および、撮影方位を撮影した対象物の画像と共に無線信号処理部12および無線送受信部11を介してセンター5宛送信する(ステップS10)。   The control unit 13 uses the shooting position and shooting direction that are insufficient to generate the three-dimensional content of the target acquired in step S6 as a key (the image recorded in the recording unit 22). ) And is transmitted to the center 5 through the wireless signal processing unit 12 and the wireless transmission / reception unit 11 together with the image of the hit object, the shooting position of the image, and the image of the object in which the shooting direction is shot (step S10).

制御部13は、センター5から申し込みのあった対象物について立体コンテンツ生成のために必要な撮影画像が揃った旨の通知を受信すると、表示部18にその旨および立体コンテンツの提供方法(立体画像データを受信するか、ミニチュアの提供を受けるか)の選択を促すメッセージを表示してユーザの選択を促し、ユーザが提供方法を選択すると、制御部13は選択結果を無線信号処理部12および無線送受信部11を介してセンター5宛送信する(ステップS11)。   When the control unit 13 receives a notification that the target image for which the application has been made from the center 5 has been completed, the control unit 13 informs the display unit 18 of the fact and a method for providing the stereoscopic content (stereoscopic image). When a message prompting the user to select whether to receive data or receive a miniature) is displayed and the user selects a providing method, the control unit 13 displays the selection result in the wireless signal processing unit 12 and the wireless Transmission to the center 5 is performed via the transmission / reception unit 11 (step S11).

ユーザが立体画像データの受信を選択した場合には、制御部13は、センター5から送信される立体画像データを無線送受信部11および無線信号処理部12を介して受け取り、記録部22に記録すると共に、上記の画像表示プログラムにより表示部18に対象物を立体的に表示する(ステップS12)。   When the user selects reception of stereoscopic image data, the control unit 13 receives the stereoscopic image data transmitted from the center 5 via the wireless transmission / reception unit 11 and the wireless signal processing unit 12 and records them in the recording unit 22. At the same time, the object is displayed three-dimensionally on the display unit 18 by the image display program (step S12).

(変形例)
なお、立体コンテンツ取得サービス選択時の携帯電話機1の動作の変形例として、ステップS8を、「ユーザが携帯電話機1を帯同して、撮影対象物の付近を移動している際に、制御部13はステップS6で取得した情報に含まれる撮影位置と、カメラ位置取得部28で取得する現在位置とを比較し、ほぼ一致するとスピーカ27(または図示しないバイブレータ)を駆動して、その旨を報知すると共に、表示部18に撮影のためのガイダンスを表示する」ように構成し、ステップS9を、「ユーザが報知された地点で、撮影ガイダンスに示された撮影方位で対象物を撮影すると、制御部13は、撮影画像と、カメラ位置取得部28で取得した撮影位置(現在位置)および撮影方位を無線信号処理部12および無線送受信部11を介してセンター5宛送信する」ように構成し、ステップS10を「上記ステップS8、S9の動作を、センター5から立体コンテンツを作成するための撮像画像が揃った旨の通知を受信するまで繰り返す」ように構成してもよい。
(Modification)
Note that, as a modification of the operation of the mobile phone 1 when the three-dimensional content acquisition service is selected, step S8 is performed as follows: “When the user is moving around the object to be photographed with the mobile phone 1, Compares the shooting position included in the information acquired in step S6 with the current position acquired by the camera position acquisition unit 28. If they substantially match, the speaker 27 (or a vibrator not shown) is driven to notify that effect. In addition, the display unit 18 is configured to display a guidance for photographing ”, and when the object is photographed in the photographing direction indicated in the photographing guidance at the point where the user is notified, the control unit Reference numeral 13 denotes a sensed image, a photographing position (current position) acquired by the camera position acquisition unit 28, and a photographing direction via the wireless signal processing unit 12 and the wireless transmission / reception unit 11. "Send to 5", and repeat step S10 "repeating the operations of steps S8 and S9 until a notification is received from the center 5 that the captured images for creating the 3D content are ready". It may be configured.

図7は、立体コンテンツ提供サービス開始時に携帯電話機1に表示されるサービス開始情報等の一例を示す図であり、図7(a)は、ユーザ(カメラ)の現在位置(星印で示されている)71およびランドマークで示される撮影すべき対象物7を含む地図表示の例であり、図7(b)は撮影すべき対象物7付近における必要な撮影位置(#1〜#3で表されている地点)76および撮影方位(矢印)77、およびガイドメッセージ78を表示した撮影案内画面の例である。   FIG. 7 is a diagram illustrating an example of service start information displayed on the mobile phone 1 when the stereoscopic content providing service is started. FIG. 7A illustrates the current position (indicated by a star) of the user (camera). 7 and an example of a map display including an object 7 to be photographed indicated by a landmark, and FIG. 7B shows a necessary photographing position (represented by # 1 to # 3) in the vicinity of the object 7 to be photographed. It is an example of a shooting guide screen displaying a point 76), a shooting direction (arrow) 77, and a guide message 78.

図8は、センター5のサーバー3の動作例を示すフローチャートであり、サーバー3は制御プログラム、通信制御プログラム、立体コンテンツ提供サービス用のセンター側動作プログラム、立体コンテンツ生成プログラム等の動作プログラムに基づいて、図8に示すような動作(機能)を実行する。   FIG. 8 is a flowchart showing an operation example of the server 3 in the center 5. The server 3 is based on an operation program such as a control program, a communication control program, a center-side operation program for a stereoscopic content providing service, and a stereoscopic content generation program. The operation (function) as shown in FIG. 8 is executed.

図8で、インターネット6を介して携帯電話機1からのサービス選択通知およびユーザ情報を受信すると(ステップT1)、制御部31は保存メモリ36の登録ファイルを検索して登録ユーザか否かを調べ、登録ユーザの場合は登録者認証のための認証要求をインターネット6を介して携帯電話機1に送信する。また、登録ユーザでない場合は登録要求を上記選択通知送信元の携帯電話機1に送信し、T1に戻る(ステップT2)。   In FIG. 8, when the service selection notification and user information are received from the mobile phone 1 via the Internet 6 (step T1), the control unit 31 searches the registration file in the storage memory 36 to check whether or not the user is a registered user. In the case of a registered user, an authentication request for registrant authentication is transmitted to the mobile phone 1 via the Internet 6. If the user is not a registered user, a registration request is transmitted to the mobile phone 1 that is the transmission source of the selection notification, and the process returns to T1 (step T2).

次に、携帯電話機1から登録情報を受信すると(ステップT3)、制御部13は、保存メモリ36の登録ファイルに受信した登録情報を登録してユーザ登録を終了し、ステップT7に進む(ステップT4)。   Next, when registration information is received from the mobile phone 1 (step T3), the control unit 13 registers the received registration information in the registration file in the storage memory 36, ends the user registration, and proceeds to step T7 (step T4). ).

また、認証情報を受信すると(ステップT5)、制御部13は、受信した認証情報に含まれる登録者識別情報およびパスワード等の認証データと保存メモリ36の登録ファイルに記憶されている登録者識別情報および認証データを比較して認証結果を認証情報送信元の携帯電話機1に送信する。この際、認証できた場合はステップT7に進み、認証できなかった場合はステップT1に戻る(ステップT6)。   When the authentication information is received (step T5), the control unit 13 registers the registrant identification information and the authentication data such as a password included in the received authentication information and the registrant identification information stored in the registration file of the storage memory 36. Then, the authentication data is compared, and the authentication result is transmitted to the mobile phone 1 as the authentication information transmission source. At this time, if the authentication is successful, the process proceeds to step T7, and if the authentication is not possible, the process returns to step T1 (step T6).

また、ステップT4での登録処理が終了するか、ステップT7で登録者の認証ができた場合は、サーバー3は、センター5でサービス提供可能な対象物一覧データを登録/認証情報送信元の携帯電話機1に送信する(ステップT7)。   In addition, when the registration process in step T4 ends or the registrant can be authenticated in step T7, the server 3 registers the object list data that can be provided by the center 5 with the registration / authentication information transmission source mobile phone. Transmit to the telephone 1 (step T7).

対象物一覧データ送信先の携帯電話機1から選択され対象物の識別情報を受信すると(ステップT8)、制御部31は、受信した対象物の識別情報でデータベース4の対象物別撮影画像レコード40を検索し、ヒットした対象物別撮影画像レコード40の対象物の立体画像ポインタ43を調べ、この立体画像ポインタ43に無効値が記憶されている場合は、撮影方位データ45−1〜45−m、撮影位置データ46−1〜46−mを調べ、無効値でないポインタを元に、撮影方位および撮影位置を取り出し、カメラ位置情報解析部35に渡す(ステップT9)。   When the identification information of the target selected from the mobile phone 1 that is the target list data transmission destination is received (step T8), the control unit 31 uses the received identification information of the target to capture the captured image record 40 for each target in the database 4. The three-dimensional image pointer 43 of the object in the object-specific captured image record 40 that has been searched is searched, and if an invalid value is stored in the stereoscopic image pointer 43, the shooting direction data 45-1 to 45-m, The photographing position data 46-1 to 46-m are examined, the photographing direction and the photographing position are taken out based on the pointer that is not an invalid value, and passed to the camera position information analysis unit 35 (step T9).

カメラ位置情報解析部35は、ステップT9でデータベース4から取り出した撮影方位および撮影位置の組み合わせを調べ、立体コンテンツ(立体画像データ)の生成に必要な画像枚数、撮影方位および撮影位置を満たしているか否かを解析し、不足している場合は不足している撮影方位および撮影位置を算出する。制御部31は対象物の地図データをデータベース4から取り出し、その地図データとカメラ位置情報解析部35の解析結果(立体コンテンツに必要な画像を撮影するための撮影方位、及び、撮影位置)を対象物の識別情報送信元の携帯電話機1に送信し、ステップT1に戻る(ステップT10)。
なお、カメラ位置情報解析部35による不足している撮影方位および撮影位置の解析は、例えば、背景技術の項で述べた、(1)〜(3)の手順のうち、(1)において、2つ既知のカメラ位置と1つの未知のカメラ位置の3点を想定し、未知のカメラ位置の計算を3点の位置関係を組み合わせて決定される方程式を解くことにより求め、順次、未知のカメラ位置を求めていくことで、算出することができる。
The camera position information analysis unit 35 checks the combination of the shooting direction and the shooting position extracted from the database 4 in step T9, and satisfies the number of images, the shooting direction, and the shooting position necessary for generating stereoscopic content (stereoscopic image data). If it is insufficient, the shooting direction and the shooting position are calculated. The control unit 31 takes out the map data of the object from the database 4, and analyzes the map data and the analysis result of the camera position information analysis unit 35 (shooting direction and shooting position for shooting an image necessary for stereoscopic content). The information is transmitted to the cellular phone 1 that is the transmission source of the object identification information, and the process returns to Step T1 (Step T10).
Note that the analysis of the shooting direction and shooting position which are insufficient by the camera position information analysis unit 35 is, for example, 2 in (1) to (3) in the procedure of (1) to (3) described in the background art section. Assuming three known camera positions and one unknown camera position, the unknown camera position is calculated by solving an equation determined by combining the positional relationship of the three points. Can be calculated.

携帯電話機1から、対象物の撮影画像データ、その画像の撮影時の撮影方位、撮影位置を受信すると(ステップT11)、制御部31は、受信したデータを一時記憶メモリ32に記録すると共に、対象物の識別情報でデータベース4の対象物別撮影画像レコード40を検索し、ヒットした対象物別撮影画像レコード40の対象物の撮影画像ポインタ44−1〜44−m、撮影方位データ45−1〜45−m、撮影位置データ46−1〜46−mのうち無効値でないポインタを元に、画像データ、撮影方位および撮影位置(座標データ)を順次取り出し、立体画像データ生成プログラムにより、一時記憶メモリ32に記録した対象物の撮像画像、撮影位置、及び、撮影方位と、データベース4から取り出した対象物の撮像画像、撮影位置、撮影方位とに基づいて、撮影画像から対象物画像と背景画像とを分離し、対象物画像のシルエット(輪郭)の抽出を行い、次に、撮影位置、及び、撮影方位と、上記抽出した輪郭情報に基づいて、3次元ボクセル空間へのボーティング処理により3次元計上を再構成し、得られたボクセルデータから、ポリゴン(多角形)データへ変換し、三角ポリゴン表現形式やSSF形式などの、立体コンテンツを生成し、一時記憶メモリ32およびデータベース4の対象物別撮影画像レコード40の対象物の立体画像ポインタ43を元に立体画像データ記憶領域48の対応する部分を上書き記憶し、立体コンテンツ生成用の画像が揃った旨を撮影画像データ等送信元の携帯電話機1に送信し、ステップT1に戻る(ステップT12)。   When the photographed image data of the object, the photographing orientation at the time of photographing the image, and the photographing position are received from the mobile phone 1 (step T11), the control unit 31 records the received data in the temporary storage memory 32 and the target The photographed image record 40 classified by object in the database 4 is searched with the object identification information, and the photographed image pointers 44-1 to 44-m of the object of the photographed image record 40 classified by object and the shooting direction data 45-1 to 45-1. 45-m and image position data 46-1 to 46-m, based on a pointer that is not an invalid value, image data, image direction and image position (coordinate data) are sequentially extracted and temporarily stored in a three-dimensional image data generation program. 32, the captured image, the shooting position, and the shooting direction of the target object, and the captured image, the shooting position, and the shooting of the target object extracted from the database 4. Based on the position, the object image and the background image are separated from the photographed image, the silhouette (contour) of the object image is extracted, and then the photographing position and photographing direction, and the extracted contour information are extracted. Based on the above, 3D data is reconstructed by voting to the 3D voxel space, and the obtained voxel data is converted to polygon (polygon) data. A content is generated, and a corresponding part of the stereoscopic image data storage area 48 is overwritten and stored based on the stereoscopic image pointer 43 of the object in the temporary storage memory 32 and the captured image record 40 according to the object in the database 4 to generate a stereoscopic content. Is transmitted to the mobile phone 1 that is the transmission source of the photographed image data, etc., and the process returns to step T1 (step T12).

また、対象物の画像データ送信元の携帯電話機1から立体コンテンツの提供方法の選択結果を受信すると(T13)、制御部31は受信選択結果を調べ、「立体画像データ受信」が選択されている場合はステップT15に進み、「ミニチュア受け取り」が選択されている場合はステップT16に進む(ステップT14)。   When the selection result of the stereoscopic content providing method is received from the cellular phone 1 that is the image data transmission source of the object (T13), the control unit 31 examines the reception selection result and “stereoscopic image data reception” is selected. If this is the case, the process proceeds to step T15. If “miniature reception” is selected, the process proceeds to step T16 (step T14).

「立体画像データ受信」が選択されていた場合は、ステップT7で一時記憶メモリ32に記憶した立体画像データを選択結果送信元の携帯電話機1に送信すると共に、課金処理を行いステップT1に戻る(ステップT15)。   If “receive stereoscopic image data” is selected, the stereoscopic image data stored in the temporary storage memory 32 in step T7 is transmitted to the mobile phone 1 that is the transmission source of the selection result, and charging processing is performed, and the process returns to step T1 ( Step T15).

「ミニチュア受け取り」が選択されていた場合は、制御部31は、ステップT7で一時記憶メモリ32に記憶したデータから、ミニチュア製作用データ作成プログラムにより外部ミニチュア製作用装置で用いる製作用データを作成し、図示しない媒体記録装置によりCD等の記録媒体に作成した加工用データを記録すると共に、課金処理を行い、ステップT1に戻る(ステップT16)。   If “Miniature Receipt” is selected, the control unit 31 creates production data to be used in the external miniature production device from the data stored in the temporary storage memory 32 in Step T7 by the miniature production data creation program. Then, the processing data created on a recording medium such as a CD is recorded by a medium recording device (not shown), and a charging process is performed, and the process returns to step T1 (step T16).

1 カメラ機能付携帯電話機(表示装置)
3 サーバー
4 データベース
5 センター
13,31 制御部
15 撮像部
18 表示部
22 記録部
28 カメラ位置取得部
32 保存メモリ
35 カメラ位置情報解析部
1 Mobile phone with camera function (display device)
3 Server 4 Database 5 Center 13, 31 Control unit 15 Imaging unit 18 Display unit 22 Recording unit 28 Camera position acquisition unit 32 Storage memory 35 Camera position information analysis unit

Claims (6)

撮像画像を記憶する記憶手段と、
対象物を撮影するための撮影位置、または、この対象物を撮影するための撮影方位の少なくとも一方を受信する第1の受信手段と、
この第1の受信手段によって受信された撮影位置、または、撮影方位の少なくとも一方に沿って撮像された前記対象物の撮像画像を前記記憶手段から読み出す読出手段と、
この読出手段によって読み出された撮像画像を、前記対象物を立体的に表示させるためのデータを生成するセンターへ送信する送信手段と、
この送信手段による前記対象物の画像の送信に応答して、前記センターから送信される前記対象物を立体的に表示させるためのデータを受信する第2の受信手段と、
この第2の受信手段によって受信されたデータに基づいて、前記対象物を立体的に表示する立体表示手段と、
を備えることを特徴とする表示装置。
Storage means for storing captured images;
First receiving means for receiving at least one of a shooting position for shooting a target object or a shooting direction for shooting the target object;
Reading means for reading out the captured image of the object taken along at least one of the photographing position or the photographing direction received by the first receiving means from the storage means;
A transmission unit that transmits the captured image read by the reading unit to a center that generates data for displaying the object three-dimensionally;
In response to transmission of the image of the object by the transmission means, second receiving means for receiving data for stereoscopically displaying the object transmitted from the center;
3D display means for stereoscopically displaying the object based on the data received by the second receiving means;
A display device comprising:
前記第1の受信手段によって受信された対象物の撮影位置、または、撮影方位の少なくとも一方に従って、前記対象物を撮像する撮像手段を更に備え、
前記記憶手段は、この撮像手段によって撮像された前記対象物の撮像画像を記憶することを特徴とする請求項1に記載の表示装置。
An imaging unit that images the object according to at least one of an imaging position or an imaging direction of the object received by the first receiving unit;
The display device according to claim 1, wherein the storage unit stores a captured image of the object captured by the imaging unit.
前記第1の受信手段は、前記対象物の撮影位置を受信するとともに、
当該装置の現在位置を取得する現在位置取得手段と、
前記対象物の撮影位置と前記現在位置取得手段によって取得された現在位置とを比較する比較手段と、
この比較手段による比較の結果、前記対象物の撮影位置と前記現在位置とがほぼ一致すると、その旨を報知する報知手段と、
を更に備えることを特徴とする請求項2に記載の表示装置。
The first receiving means receives the shooting position of the object,
Current position acquisition means for acquiring the current position of the device;
Comparison means for comparing the shooting position of the object and the current position acquired by the current position acquisition means;
As a result of the comparison by the comparison means, when the photographing position of the object and the current position substantially coincide with each other, a notification means for notifying that effect,
The display device according to claim 2, further comprising:
対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースと、
撮影端末と、
前記データベースに未だ記憶されていない前記対象物の部分要素があることを前記撮影端末に通知する通知手段と、
この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、
この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、
この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、
この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、
この生成手段によって生成された立体コンテンツを前記撮影端末に送信する手段と、
を備えることを特徴とする立体コンテンツ作成システム。
A database for storing a plurality of subelements that are the basis for generating the stereoscopic content of the object;
A shooting terminal,
Notifying means for notifying the photographing terminal that there is a partial element of the object not yet stored in the database;
Receiving means for receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification by the notifying means;
Extracting means for extracting a partial element from the captured image of the object received by the receiving means;
Determining means for determining whether or not the three-dimensional content of the object can be generated by the partial elements extracted by the extracting means and the plurality of partial elements stored in the database;
If the determination means determines that the three-dimensional content can be generated, a generation means for generating the three-dimensional content of the object;
Means for transmitting the stereoscopic content generated by the generating means to the photographing terminal;
A three-dimensional content creation system comprising:
対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースにおいて、未だ記憶されていない部分要素が存在することを通信ネットワークを介して撮影端末に通知する通知手段と、
この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、
この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、
この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、
この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、
を備えることを特徴とする立体コンテンツ生成装置。
A notification means for notifying a photographing terminal via a communication network that there is a partial element that has not yet been stored in a database for storing a plurality of partial elements that are a basis for generating a stereoscopic content of an object;
Receiving means for receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification by the notifying means;
Extracting means for extracting a partial element from the captured image of the object received by the receiving means;
Determining means for determining whether or not the three-dimensional content of the object can be generated by the partial elements extracted by the extracting means and the plurality of partial elements stored in the database;
If the determination means determines that the three-dimensional content can be generated, generation means for generating the three-dimensional content of the object;
A three-dimensional content generation device comprising:
対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースにおいて、未だ記憶されていない部分要素が存在することを通信ネットワークを介して撮影端末に通知する通知ステップと、
この通知ステップでの通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信ステップと、
この受信ステップにて受信された前記対象物の撮像画像から部分要素を抽出する抽出ステップと、
この抽出ステップにて抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断ステップと、
この判断ステップにて前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成ステップと、
を含むことを特徴とする立体コンテンツ生成方法。
A notification step of notifying a photographing terminal via a communication network that there is a partial element that is not yet stored in a database for storing a plurality of partial elements serving as a basis for generating the stereoscopic content of the object;
A reception step of receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification in the notification step;
An extraction step of extracting a partial element from the captured image of the object received in the reception step;
A determination step of determining whether or not the three-dimensional content of the object can be generated by the partial elements extracted in the extraction step and the plurality of partial elements stored in the database;
If it is determined in this determination step that the three-dimensional content can be generated, a generation step for generating the three-dimensional content of the object;
A three-dimensional content generation method comprising:
JP2009005273A 2009-01-14 2009-01-14 Display apparatus, and system, apparatus and method for creating three-dimensional content Pending JP2010165081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009005273A JP2010165081A (en) 2009-01-14 2009-01-14 Display apparatus, and system, apparatus and method for creating three-dimensional content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009005273A JP2010165081A (en) 2009-01-14 2009-01-14 Display apparatus, and system, apparatus and method for creating three-dimensional content

Publications (1)

Publication Number Publication Date
JP2010165081A true JP2010165081A (en) 2010-07-29

Family

ID=42581205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009005273A Pending JP2010165081A (en) 2009-01-14 2009-01-14 Display apparatus, and system, apparatus and method for creating three-dimensional content

Country Status (1)

Country Link
JP (1) JP2010165081A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160070012A (en) * 2014-12-09 2016-06-17 (유)도건테크 Method and system for providing Picture lay out drawings by using three dimensional scan technologies
JP2017046106A (en) * 2015-08-25 2017-03-02 オリンパス株式会社 Imaging apparatus, imaging method, and imaging program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160070012A (en) * 2014-12-09 2016-06-17 (유)도건테크 Method and system for providing Picture lay out drawings by using three dimensional scan technologies
KR101715325B1 (en) 2014-12-09 2017-03-13 (유)도건테크 Method and system for providing Picture lay out drawings by using three dimensional scan technologies
JP2017046106A (en) * 2015-08-25 2017-03-02 オリンパス株式会社 Imaging apparatus, imaging method, and imaging program

Similar Documents

Publication Publication Date Title
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
EP1117256A1 (en) All-around video output method and device
CN109934931B (en) Method and device for collecting image and establishing target object recognition model
CN104365083A (en) Image processing device, image processing method, and program
JP5512378B2 (en) Object display device, object display system, and object display method
EP3972236A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
US11736802B2 (en) Communication management apparatus, image communication system, communication management method, and recording medium
EP3989539B1 (en) Communication management apparatus, image communication system, communication management method, and carrier means
JP5547356B2 (en) Imaging apparatus, method, storage medium, and program
JP6388532B2 (en) Image providing system and image providing method
JP2010198104A (en) Image display system, portable terminal system, portable terminal equipment, server, and image display method thereof
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2010165081A (en) Display apparatus, and system, apparatus and method for creating three-dimensional content
JP5578719B2 (en) Information system, terminal device, advertisement output method, and program
CN111242107B (en) Method and electronic device for setting virtual object in space
JP7225016B2 (en) AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal
US11825191B2 (en) Method for assisting the acquisition of media content at a scene
JP4734660B2 (en) Map information apparatus and map information system
KR101763938B1 (en) A method for processing image data based on location information related on view-point and apparatus for the same
JP2021089487A (en) Image processing device, program and image processing system
JP4673861B2 (en) Information display system and information display method
JP2020204973A (en) Information processing device, program, and information processing system
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2019024206A (en) Image display system, image display device, image display method, and program