JP2010165081A - Display apparatus, and system, apparatus and method for creating three-dimensional content - Google Patents
Display apparatus, and system, apparatus and method for creating three-dimensional content Download PDFInfo
- Publication number
- JP2010165081A JP2010165081A JP2009005273A JP2009005273A JP2010165081A JP 2010165081 A JP2010165081 A JP 2010165081A JP 2009005273 A JP2009005273 A JP 2009005273A JP 2009005273 A JP2009005273 A JP 2009005273A JP 2010165081 A JP2010165081 A JP 2010165081A
- Authority
- JP
- Japan
- Prior art keywords
- shooting
- dimensional content
- image
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、表示装置、立体コンテンツ生成システム、立体コンテンツ生成装置、及び、立体コンテンツ生成方法に関する。
本発明の利用分野としては、例えば、画像データをセンターに送信し、センター側で画像データを元に立体コンテンツを生成して、画像データを送信したユーザに提供する立体コンテンツ提供サービスを提供する。
The present invention relates to a display device, a stereoscopic content generation system, a stereoscopic content generation device, and a stereoscopic content generation method.
As a field of use of the present invention, for example, there is provided a stereoscopic content providing service that transmits image data to a center, generates stereoscopic content based on the image data on the center side, and provides it to the user who transmitted the image data.
一つの建造物を複数のカメラで複数の方向から撮影し、それらの撮影画像と予め用意された3次元CADデータとに基づいて、3次元化されて再現された建造物の画像を立体メガネを介して映す技術が開示されている(例えば、特許文献1参照)。 A single building is photographed from a plurality of directions with a plurality of cameras, and a three-dimensional reproduction of the building image that has been reproduced in three dimensions based on the photographed images and three-dimensional CAD data prepared in advance. A technique for projecting images is disclosed (for example, see Patent Document 1).
複数の画像における点対応からカメラ運動と相対的位置関係(3次元形状)とを復元する場合には、点対応は、まず「画像座標」で与えられるので、全てのカメラに対して統一的に扱うためには、この「画素(Pixel)座標」と「画像(Image)座標」間の1対1の写像関係を求めること(「カメラキャリブレーション」と呼ばれる)ができれば、「画素(Pixel)座標」と「画像(Image)座標」とを自由に変換できることになる。 When restoring camera motion and relative positional relationship (three-dimensional shape) from point correspondence in multiple images, point correspondence is first given by "image coordinates", so it is unified for all cameras. In order to handle it, if a one-to-one mapping relationship between the “pixel coordinates” and the “image coordinates” can be obtained (called “camera calibration”), the “pixel coordinates” can be obtained. "And" Image coordinates "can be freely converted.
そこで、複数の撮影画像から3次元形状データを作成する方法として、例えば全周囲360度からの多視点角度から、または、周囲に配した複数台のカメラから撮影した画像データを入力して、対象物の3次元形状データを作成するソフトウエアが各種開発されている。これらのソフトウエアでは、予めカメラを所定の位置や角度に配して撮影したカメラ位置情報が既知のカメラで撮影された複数枚の多視点画像を用いる方法や、非特許文献1に開示されているように、回転台に印刷された参照マーカーと、回転台に載せた対象物体とを一緒に撮影した複数枚のカメラ画像から、撮影時のカメラ位置を自動計算する方法がある。
Therefore, as a method for creating three-dimensional shape data from a plurality of photographed images, for example, by inputting image data photographed from a multi-viewpoint angle from 360 degrees all around or from a plurality of cameras arranged around the object, Various software for creating three-dimensional shape data of an object has been developed. In these softwares, a method using a plurality of multi-viewpoint images captured by a camera whose camera position information is previously captured with a camera placed at a predetermined position or angle, or disclosed in Non-Patent
そして、得られたカメラ位置情報と物体画像とから形状とテクスチャの3次元情報を自動計算し、その3次元情報をユーザが適宜修正してデジタルカメラで手持ち撮影した画像から3次元データを生成する。つまり、対象物を撮影した視点の異なる10〜20枚程度以上のJPEGフォーマットの撮影画像データを入力して、カメラ位置の計算、形状情報の生成、テクスチャ情報の生成などの一連の処理を実行して、3次元形状データを作成する。 Then, the three-dimensional information of the shape and texture is automatically calculated from the obtained camera position information and the object image, and the three-dimensional information is appropriately corrected by the user to generate the three-dimensional data from the image hand-held by the digital camera. . In other words, about 10 to 20 or more JPEG-format captured image data with different viewpoints for capturing an object are input, and a series of processes such as camera position calculation, shape information generation, and texture information generation are executed. 3D shape data is created.
更に詳述すると下記(1)〜(3)の手順により3次元形状データを得る。
(1)カメラ位置の計算を行う場合では、例えば、座標系におけるカメラの3次元位置パラメータ(回転成分α,β,γと平行移動成分(x、y、z)をHough変換などに基づいて計算する。つまり、撮影された画像から、参照マーカーを抽出し、抽出された参照マーカーの任意の3点と、あらかじめ登録されている参照マーカー中の任意の3点の位置関係を組合せて決定される連立方程式を解くことにより、位置パラメータを計算する。
(2)形状情報の生成では、単色の背景紙などを使用して対象を撮影し、指定した背景の色情報を用いて物体と背景を分離し、対象物のシルエット(輪郭)の抽出を行う。
(3) 次に、カメラの位置情報と対象物の2次元輪郭情報に基づいて、3次元ボクセル空間へのボーティング(投票)処理により、3次元形状を再構成し、得られたボクセルデータから、ポリゴン(多角形)データへ変換し、三角ポリゴン表現形式やSSF形式など、3次元形状データとして出力する。
More specifically, three-dimensional shape data is obtained by the following procedures (1) to (3).
(1) When calculating the camera position, for example, the three-dimensional position parameters of the camera in the coordinate system (rotation components α, β, γ and translation components (x, y, z)) are calculated based on the Hough transform or the like. That is, a reference marker is extracted from the photographed image, and is determined by combining any three points of the extracted reference marker and any three points in the reference marker registered in advance. The position parameters are calculated by solving the simultaneous equations.
(2) In the generation of shape information, an object is photographed using a monochrome background paper or the like, the object and the background are separated using the specified background color information, and the silhouette (outline) of the object is extracted. .
(3) Next, based on the position information of the camera and the two-dimensional outline information of the object, a three-dimensional shape is reconstructed by voting (voting) processing to the three-dimensional voxel space, and from the obtained voxel data And converted into polygon (polygon) data, and output as three-dimensional shape data such as a triangular polygon representation format and an SSF format.
しかしながら、上記特許文献1などに開示の技術では、ユーザ(個人)が立体コンテンツを閲覧したい場合はあらかじめ設けられた観察用屋内の壁面に画像を投影し、立体メガネを装着してみる必要があり、しかも、ユーザが、希望する立体コンテンツを得たい場合には、ユーザが見たい部分を指定し、システムの装置を介して必要な撮影画像を撮影させ、複数の撮影画像を用意させる必要があった。
However, with the technology disclosed in
また、非特許文献1に開示のように自動撮影機から3次元データを自動作成する場合は、周囲360度から多数枚の画像やアクティブスキャン画像などを撮影する360度撮影台や専用撮影機を必要とするので、ユーザは、専用撮影機の設置場所まで赴いて写真を撮影する必要があるが、ユーザが立体コンテンツとして所望する既存の建造物等を360度撮影するためには大掛かりな準備が必要となり経済性や時間的観点から現実的ではないという問題点があった。また、写真画像から3次元データを生成するには、上記(1)のカメラ位置の計算を行う必要があり、複雑な計算を必要とし、その結果についても専門家による調整作業が必要であるという不都合があった。
In addition, as disclosed in Non-Patent
また、上述した全周囲360度からの多視点角度から、または、周囲に配した複数台のカメラから撮影した画像データを入力して、対象物の3次元形状データを作成する方法によれば、カメラ位置を入力すればよいので上記(1)の不都合は生じないが、ユーザが立体コンテンツとして所望する既存の建造物等を360度撮影するためには全周を撮影するために複数台のカメラを配設する必要があり、建造物等の大きさや立地条件(地形や立ち木等の障害物の存在)により必要数のカメラを配設できない場合や、必要数のカメラを揃えてカメラを配設するための費用が嵩むといった不都合があった。 In addition, according to the method of creating the three-dimensional shape data of the object by inputting image data taken from a plurality of viewing angles from 360 degrees around the above-mentioned or from a plurality of cameras arranged in the surroundings, Although it is sufficient to input the camera position, the problem (1) does not occur. However, in order to photograph an existing building or the like desired by the user as a three-dimensional content at 360 degrees, a plurality of cameras are used to photograph the entire circumference. If the required number of cameras cannot be installed due to the size of the building or the location conditions (the presence of obstacles such as terrain or standing trees), or the cameras are arranged with the required number of cameras. There was an inconvenience that the cost for doing so increased.
上記課題を解決するために、請求項1に記載の発明は、撮像画像を記憶する記憶手段と、 対象物を撮影するための撮影位置、または、この対象物を撮影するための撮影方位の少なくとも一方を受信する第1の受信手段と、この第1の受信手段によって受信された撮影位置、または、撮影方位の少なくとも一方に沿って撮像された前記対象物の撮像画像を前記記憶手段から読み出す読出手段と、この読出手段によって読み出された撮像画像を、前記対象物を立体的に表示させるためのデータを生成するセンターへ送信する送信手段と、 この送信手段による前記対象物の画像の送信に応答して、前記センターから送信される前記対象物を立体的に表示させるためのデータを受信する第2の受信手段と、この第2の受信手段によって受信されたデータに基づいて、前記対象物を立体的に表示する立体表示手段と、を備えることを特徴とする。
In order to solve the above-described problem, the invention described in
また、請求項2に記載の発明は、上記請求項1記載の発明において、前記第1の受信手段によって受信された対象物の撮影位置、または、撮影方位の少なくとも一方に従って、前記対象物を撮像する撮像手段を更に備え、前記記憶手段は、この撮像手段によって撮像された前記対象物の撮像画像を記憶することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, the object is imaged in accordance with at least one of a photographing position or a photographing direction of the object received by the first receiving means. The storage means stores a captured image of the object imaged by the imaging means.
また、請求項3に記載の発明は、上記請求項2記載の発明において、前記第1の受信手段は、前記対象物の撮影位置を受信するとともに、当該装置の現在位置を取得する現在位置取得手段と、前記対象物の撮影位置と前記現在位置取得手段によって取得された現在位置とを比較する比較手段と、この比較手段による比較の結果、前記対象物の撮影位置と前記現在位置とがほぼ一致すると、その旨を報知する報知手段と、を更に備えることを特徴とする。
The invention according to
また、上記課題を解決するために、請求項4に記載の発明は、対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースと、撮影端末と、前記データベースに未だ記憶されていない前記対象物の部分要素があることを前記撮影端末に通知する通知手段と、この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、この生成手段によって生成された立体コンテンツを前記撮影端末に送信する手段と、を備えることを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 4 is still in the database for storing a plurality of subelements as a basis for generating the three-dimensional content of the object, the photographing terminal, and the database. Notification means for notifying the photographing terminal that there is a subelement of the object that is not stored, and a captured image of the object that is photographed and transmitted by the photographing terminal in response to a notification by the notification means Receiving means, extracting means for extracting subelements from the captured image of the object received by the receiving means, subelements extracted by the extracting means, and a plurality of subelements stored in the database And determining means for determining whether or not the three-dimensional content of the object can be generated, and determining that the three-dimensional content can be generated by the determining means. If that, a generation unit for generating stereoscopic contents of the object, characterized in that it comprises a means, for transmitting a stereoscopic content generated by the generation unit to the imaging device.
また、上記課題を解決するために、請求項5に記載の発明は、対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースにおいて、未だ記憶されていない部分要素が存在することを通信ネットワークを介して撮影端末に通知する通知手段と、この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、を備えることを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 5 is the database for storing a plurality of partial elements that are the basis for generating the three-dimensional content of the target object. Notification means for notifying the photographing terminal of the presence via the communication network, and receiving means for receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification by the notifying means. The extraction unit extracts a partial element from the captured image of the object received by the reception unit, the partial element extracted by the extraction unit, and a plurality of partial elements stored in the database. A determination unit that determines whether or not the three-dimensional content can be generated, and when the determination unit determines that the three-dimensional content can be generated, Characterized in that it comprises generation means for generating a three-dimensional content elephant product, the.
また、上記課題を解決するために、請求項6に記載の発明は、対象物の立体コンテンツを生成する基となる複数の部分要素を記憶するためのデータベースにおいて、未だ記憶されていない部分要素が存在することを通信ネットワークを介して撮影端末に通知する通知ステップと、この通知ステップでの通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信ステップと、この受信ステップにて受信された前記対象物の撮像画像から部分要素を抽出する抽出ステップと、この抽出ステップにて抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断ステップと、この判断ステップにて前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成ステップと、を含むことを特徴とする。
In order to solve the above-mentioned problem, the invention according to
本発明によれば、必要な部分要素の取得に係る負担を軽減させつつ、ユーザに対し所望する立体コンテンツを生成し提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the desired three-dimensional content can be produced | generated and provided with respect to a user, reducing the burden concerning acquisition of a required partial element.
図1は、本発明を適用した立体コンテンツ提供サービスシステム100の構成例を示す図であり、立体コンテンツ提供サービスシステム100は、立体画像表示機能を備えた表示装置としてのカメラ付携帯電話機1(以下、「携帯電話機1」と記す)、複数のセルラー基地局2(以下、「基地局2」と記す)、建築物や建造物等の立体コンテンツ(立体画像データ)や、この立体コンテンツを生成するために用いられる部分要素を含むものとして、建築物や建造物などの撮影対象の撮影画像とその撮影方位や撮影位置等のカメラ情報を複数格納してなるデータベース4を備えたサーバー3から構成され、基地局2とサーバー3はインターネット6等の通信ネットワーク(以下、「インターネット6」と記す)を介して接続し、携帯電話機1と基地局2はセルラー無線通信方式により接続可能に構成されている。なお、符号5は立体コンテンツ提供サービスの運営者によって運営される立体コンテンツ提供センター(以下、「センター5」と記す)を意味し、符号7はユーザが要求する立体コンテンツの対象の一例である建造物を示す。
FIG. 1 is a diagram showing a configuration example of a stereoscopic content providing
図2は、図1の立体コンテンツ提供サービスシステム100における立体コンテンツ提供サービスの概要を示すプロセスチャートである。図2で、まず、ユーザが携帯電話機1を起動して、各種サービスのうち立体コンテンツ提供サービスを選択し、ユーザ登録(ユーザ登録済みの場合は登録番号等の入力)を行う(プロセスP1)。
FIG. 2 is a process chart showing an overview of the stereoscopic content providing service in the stereoscopic content providing
センター5(のサーバー3)から携帯電話機1に送られる建築物や建造物(以下、「対象物」と記す)の一覧から立体コンテンツの購入を予定する建造物等(対象物)を選択する(プロセスP2)。なお、データベース4には建築物や建造物だけでなく、設備や、装置や標本等の撮影画像を対応付けた撮影画像識別情報を登録するようにしてもよい。
From the list of buildings and buildings (hereinafter referred to as “objects”) sent from the center 5 (server 3) to the
撮影対象を選択すると、センター5のサーバー3は、その対象物について立体コンテンツを生成するために必要な部分要素を得るため、データベース4に未だ記憶されていない前記対象物の部分要素があることを、その対象物が存在する位置情報(座標データ)、その対象物の画像を撮影するための撮影方位、および撮影位置(座標データ)の一覧を、ユーザの携帯電話1にインターネット6および基地局2を介して送信するので、携帯電話機1はそれらのデータをダウンロードする(プロセスP3)。
When the photographing target is selected, the
登録ユーザは、携帯電話1に表示される撮影可能な対象物のなかから所望の対象物を選択し、その対象物を複数枚撮影してメモリに記憶すると、携帯電話機1は立体コンテンツを提供するために不足している撮影方位および撮影位置に基づいて撮像された画像、および/または、これらに基づいてメモリを検索してヒットした画像と、その画像の撮影方位および撮影位置等のカメラ位置情報とをセンター5にアップロードする(プロセスP4)。
When the registered user selects a desired object from among the objects that can be photographed displayed on the
センター5では、立体コンテンツを生成するのに必要とする撮影画像が揃ったか否か判断し、揃ったと判断すると、その旨を、画像を提供したユーザ(一人もしくは複数)の携帯電話機1に通知する(プロセスP5)。
The center 5 determines whether or not the captured images necessary for generating the three-dimensional content are prepared, and if it is determined that the images are prepared, the center 5 notifies the
通知を受けたユーザが、その立体コンテンツの具体的な提供として、立体画像データの提供を受けるか、ミニチュアの提供を受けるかの別を、携帯電話機1を操作して選択すると(プロセスP6)、選択内容が携帯電話機1から基地局2、インターネット6を介してサーバー3に送られ、ユーザの希望に沿った立体コンテンツが提供される。このとき、サーバー3は、画像を提供したユーザは無料提供(もしくは割引価格)、それ以外のユーザは通常価格として課金する(プロセスP7)。
When the user who has received the notification selects whether to receive the provision of stereoscopic image data or the provision of miniature as a specific provision of the stereoscopic content by operating the mobile phone 1 (process P6), The selected content is sent from the
なお、変形例として、上記プロセスP4を、「ユーザが携帯電話機1を所持して移動している際、ユーザが撮影位置に付近に近づくと携帯電話機1がその旨を報知し、ユーザはガイダンスにしたがって撮影し、基地局2、およびインターネット6を介してセンター5のサーバー3に撮影画像、撮影方位、撮影位置などのカメラ情報をセンター5にアップロードする」ように構成してもよい。
As a modified example, the process P4 is described as follows: “When the user moves with the
図3は、図1に示した携帯電話機1の内部構成例を示すブロック図であり、携帯電話機3は3次元画像表示可能に構成されており、無線送受信部11、無線信号処理部12、制御部13、キー入力部14、ドライバ17、表示部18、加入者情報記憶部19、ROM等からなるプログラム格納メモリ20、DRAM等からなる一時記憶メモリ21、記録部22、音声信号処理部23、スピーカ24、マイクロフォン25、ドライバ26、スピーカ27に加え、撮像部15および画像データ処理部16、およびカメラ位置情報(撮影位置および撮影方位)を取得するカメラ位置取得部28を備えている。撮像部15および画像データ処理部16は本発明の撮像系を構成する。
FIG. 3 is a block diagram showing an example of the internal configuration of the
無線送受信部11は無線によりアンテナ111を介して音声信号やデータを送受する。無線信号処理部12は無線送受信部111で受信した音声信号やデータの復調処理、無線送受信部111から送信する音声信号やデータの変調処理などの無線通信に必要な処理を行う。そして、立体コンテンツ取得モード時には、通信制御プログラムの制御によりインターネット6と接続すると、無線送受信部11を介してセンター5のサーバー3に撮像画像およびこの撮像画像の撮影方位や撮影位置等を送信できる。また、サーバー3から送信される、立体コンテンツを生成するのに必要な対象物の撮像画像の撮影方位や撮影位置、立体画像データの受信が可能である。
The wireless transmission /
制御部13は、プログラム格納メモリ20に格納されている制御プログラム及び動作プログラムにより、図3に示した各内部構成要素の動作を制御する。動作プログラムには、通信制御プログラムや、撮像制御プログラム、画像処理プログラム、モード選択プログラム、立体コンテンツ提供サービス用の携帯電話機側動作プログラム、対象物画像を立体的に表示させるための画像表示プログラム等が含まれている。また、通信制御プログラムはインターネット6との接続制御プログラムを含んでいる。
The
キー入力部14は、電源キー、テンキー、送受信開始キー、送受信停止キー、カーソルキー、取り消しキー、決定キー、シャッターキー等の各種キーを含みこれらのキーが操作されると対応する信号が制御部13に送出される。
The
撮像部15は、撮像素子、信号変換部、撮像タイミング制御部や撮影補助光源等を含む撮像信号系(図示せず)を有しており、撮像レンズを経由し、撮像レンズの撮像光軸後方に配置された撮像素子に入射した被写体光像は撮像素子によって光電変換され撮像信号(アナログ)として出力される。撮像素子の出力信号は信号変換部で相関二重サンプリングおよびゲイン調整され、A/D変換によりデジタル信号に変換される。A/D変換された撮像信号は所定の周期で画像データ処理部16に送られる。
The
画像データ処理部16は、撮像部15から出力されたデジタル信号(画像データ)に対して画像補間処理及びγ補正処理を含むカラープロセス処理を行ってデジタル値の輝度信号Y及び色差信号Cb、Crを生成し、DRAM等の一時記憶メモリ21にバスを介してDMA転送する。
The image
ドライバ17は表示部18を駆動し、画像及びデータを表示させる。また、加入者情報記憶部19は他の電話機を呼び出すための電話番号やユーザ(登録者)のID等、プロフィールデータを格納する。実施例では立体画像表示は3次元画像表示プログラムで行うものとしたが、ドライバ17および表示部18として3次元画像表示可能なハードウエアを用いるようにしてもよい。
The
プロググラム格納メモリ20は、制御部13の制御プログラムおよび動作プログラムが記録されているメモリであり、無線通信端末として必要な各種データを記憶し、且つ制御部13が動作する上で必要なプログラムやデータを記憶する。例えば、制御プログラムや、モード選択プログラム、各種モード時の動作プログラム、立体コンテンツ提供サービス用の携帯電話機側動作プログラム、上記画像表示プログラム等の動作プログラム(アプリケーションプログラム)等を記憶している。これらのプログラムは、選択されたモードの処理段階に応じて呼び出され制御部13によって実行される。また、動作プログラムにはモード選択プログラムが含まれている。
The
一時記憶メモリ21はDRAM等のメモリで構成され、無線通信端末として必要な各種データを記憶し、且つ制御部13が動作する上で必要なプログラムやデータを記憶する。また、一時記憶メモリ21は撮影モードおよび立体コンテンツ取得モードでは、画像データ処理部16からの画像データを一時記憶するバッファメモリや、各種プログラムによるデータ処理に必要なワークメモリとして用いられる。
The
立体コンテンツ取得モードにおいて、一時記憶メモリ21には立体的に対象物の画像データを表示するのに必要なワーク領域が確保される。また、センター5から若しくは撮影時に取得した撮影位置および撮影方位や、撮影時のカメラ情報等を保持しておくカメラ情報等保持領域も確保される。
In the three-dimensional content acquisition mode, the
記録部22は無線通信端末として必要な各種データや撮影画像データおよびその撮影が雑煮に対応する撮影方位や撮影位置を記憶する。また、センター5から受信した立体コンテンツ(立体画像データ)やプログラムを記憶することもできる。携帯電話機1の電源スイッチがオフの場合でも、記録部22には電源が供給され記憶内容が維持される。
The
音声信号処理部23は、マイクロフォン24から入力された音声信号を符号化処理したり、無線信号処理部12から出力された信号に基づいて音声信号を復号してスピーカ25から出力したりする。ドライバ26は、スピーカ27を駆動するためのドライバである。
The audio
また、カメラ位置取得部28は、よく知られているGPS受信測位装置や3次元加速度センサ、傾斜センサ、電子コンパス等、カメラの位置や角度、姿勢を検出するセンサ計測装置などからなり、受信したGPS情報や電子コンパスから撮影位置および撮影方位を取得する。 The camera position acquisition unit 28 includes a well-known GPS reception positioning device, a three-dimensional acceleration sensor, a tilt sensor, an electronic compass, and other sensor measurement devices that detect the position, angle, and orientation of the camera. The shooting position and shooting direction are acquired from GPS information and an electronic compass.
図4は、図1に示したサーバー(サーバーコンピュータ)3の構成例を示すブロック図である。サーバー3は、制御部31、一時記憶メモリ32、プログラム記憶メモリ33、送受信部34、カメラ位置情報解析部35、保存メモリ36、表示部37、操作部38およびデータベース4を備えている。なお、表示部37は必須ではない。また、図示していないが、ミニチュア製作用(図示せず)のCAD等のデータをCD等の記録媒体に記録する媒体記録装置を設けるようにしてもよい。
FIG. 4 is a block diagram showing a configuration example of the server (server computer) 3 shown in FIG. The
制御部31は、プログラム格納メモリ33に格納されている制御プログラム及び動作プログラムにより、図4に示した各内部構成要素の動作を制御する。動作プログラムには、通信制御プログラムや、立体コンテンツ生成プログラム、利用者登録および認証プログラム、課金プログラム等が含まれている。また、通信制御プログラムはインターネット6との接続制御プログラムを含んでいる。
The
プログラム格納メモリ33は、制御部31の制御プログラムおよび動作プログラムが記録されているメモリであり、サーバー3として機能するための各種制御用データを記憶し、且つ制御部13が動作する上で必要なプログラムやデータを記憶する。例えば、制御プログラムや、立体コンテンツ提供サービス用のサーバー側動作プログラム、つまり、立体画像データ生成プログラム、ミニチュア製作用データ作成プログラム、利用者登録および認証プログラム、課金プログラム等のアプリケーションプログラムを記憶している。これらのプログラムは、適時、一時記憶メモリ32に呼び出され制御部31によって実行される。また、サーバー3にカメラ位置情報解析部35を設ける代わりに、画像解析プログラムを動作プログラムの一つとしてプログラム格納メモリ33に記憶するようにしてもよい。
The
なお、立体画像データ生成プログラムによるデータ生成は、背景技術の項で述べた、(1)〜(3)の手順のうち、(1)のカメラ位置は撮影時に取得されているので既知であるから、カメラ位置を既知として上述の(2)、(3)の手順によることができる。つまり、撮影画像を対象物画像と背景画像とに分離し、対象物画像のシルエット(輪郭)の抽出を行い、次に、カメラの位置情報と上記抽出した対象物の輪郭情報とを部分要素として、複数の撮影位置、及び、撮影方位の部分要素に基づいて立体画像データを生成する。
尚、撮影位置、及び、撮影方位と上記抽出した対象物の輪郭情報に基づく立体画像データの生成方法は、非特許文献1に記載の技術等公知の技術を適用することができる。
The data generation by the stereoscopic image data generation program is known because the camera position of (1) is acquired at the time of photographing among the procedures (1) to (3) described in the background section. The procedure (2) and (3) described above can be performed with the camera position known. That is, the photographed image is separated into the object image and the background image, the silhouette (contour) of the object image is extracted, and then the position information of the camera and the extracted contour information of the object are used as partial elements. Stereo image data is generated based on a plurality of shooting positions and subelements of shooting directions.
Note that a known technique such as the technique described in
一時記憶メモリ32はRAM等のメモリで構成され、制御部31が動作する上で必要なプログラムやデータを記憶する。また、一時記憶メモリ32はデータベース4や送受信部からの画像データを一時記憶するバッファメモリや、各種プログラムによるデータ処理に必要なワークメモリとして用いられる。
The
送受信部34は、通信制御プログラムの制御によりインターネット6(および基地局2)を介して携帯電話機1との間でデータの送受を行う。例えば、携帯電話機1から送信される登録情報や認証情報、画像および撮影方位や撮影位置からなるカメラ情報を受信する。また、携帯電話機1に撮影に必要な情報や立体コンテンツ、課金データ等を送信する。
The transmission /
カメラ位置情報解析部35はデータベース4に格納済みの対象物と関連付けられた複数の撮影画像から、上述の如く複数の部分要素を得、立体コンテンツ(立体画像データ)を生成できるか否かを各撮影画像の撮影方位および撮影位置を元に解析し、不足している場合は、生成に必要な撮影方位および撮影位置を出力する。なお、カメラ位置情報解析部35に代えて、同様の機能を果たす画像解析プログラムを携帯電話機1のプログラム格納メモリ20に格納しておき、ユーザによって対象が選択された場合に、制御部13がデータベース4に格納済みの画像で立体コンテンツ(立体画像データ)を生成できるか否を解析するようにしてもよい。
また、その撮影位置及び、撮影方位に基づいて、立体コンテンツ(立体画像データ)を作成するための撮像画像が揃ったか否かをカメラ位置情報解析部35で判定するように構成してもよい。
The camera position
Further, the camera position
保存メモリ36は、ハードディスク装置等の大容量記装置からなり、立体コンテンツ提供サービスのユーザ情報および認証データを記憶した登録ファイルや、利用者別に提供したコンテンツの課金データを記録する課金ファイル等を格納する。
なお、本実施例ではデータベース4を格納するメモリを保存メモリ37とは別体としたが、データベース4を保存メモリ36に構築するようにしてもよい。
The
In this embodiment, the memory for storing the database 4 is separate from the
図5は、図1および図4に示したデータベース4の構成例を示す図であり、データベース4は、対象物識別情報41、対象物の位置情報(地図座標)42、立体コンテンツとして、対象物に対応付けた立体画像データを記憶した立体画像データ記憶領域48とのポインタである立体画像ポインタ43、対象物に対応付けられた複数の撮影画像の画像データを格納した複数の撮影画像データ記憶領域49とのポインタである撮影画像ポインタ44−1〜44−m、それらの画像の撮影方位データ45−1〜45−m、撮影位置データ46−1〜46−m、登録者識別情報(登録ファイルに登録された登録者識別情報と同じ識別情報)47等からなる対象物別撮影画像レコード40を複数個、検索可能に構築してなる。
FIG. 5 is a diagram illustrating a configuration example of the database 4 illustrated in FIGS. 1 and 4. The database 4 includes the
ある対象物について立体コンテンツが完成しない場合(つまり、立体画像データを生成するための部分要素が不足している場合)は、立体画像ポインタ43および立体画像データを生成するために不足している撮像画像の撮影画像ポインタ44−j、その画像の撮影方位データ45−j、撮影位置データ46―j(j=1〜m)には無効値(null)が記憶されている。また、対象物識別情報のみで撮影画像がない場合は、対象物識別情報以外のデータ記憶領域には無効値(null)が記憶される)。
When the stereoscopic content is not completed for a certain object (that is, when the partial elements for generating the stereoscopic image data are insufficient), the imaging is insufficient for generating the
図6は、立体コンテンツ取得サービス選択時の携帯電話機1の動作例を示すフローチャートであり、携帯電話機1は制御プログラム、通信制御プログラム、画像処理プログラム、モード選択プログラム、および各種動作プログラムにより、選択されたモード動作(機能)を実行する。立体コンテンツ取得モード時の携帯電話機1の動作は制御プログラムの制御下で制御部13によってプログラム格納メモリ20から取り出され、一時記憶メモリ21の実行プログラム領域に記憶される立体コンテンツ提供サービス用の携帯電話機側動作プログラム、3次元画像表示プログラム等の動作プログラムに基づいて図示のステップに対応した動作を実行する。
FIG. 6 is a flowchart showing an operation example of the
図6で、ユーザが、キー入力部14を操作して、携帯電話機1の各種アプリケーションサービスのうち立体コンテンツ提供サービスを選択すると、制御部13は無線信号処理部12および無線送受信部11を介して基地局2に「サービス選択通知」およびユーザ情報を送信する。基地局2に無線送信されたデータはインターネット6を介してセンター5宛送信される(以下、単に「センター5宛送信する」と記す)(ステップS1)。
In FIG. 6, when the user operates the
ステップS1での「サービス選択通知」等送信後、センター5(図1参照)からインターネット6および基地局2を介して送信される登録ユーザか否かの判定結果を調べ、登録されていない場合はステップS3に進み、登録されている場合はステップS4に進む(ステップS2)。
After transmission of “service selection notification” or the like in step S1, the determination result of whether or not the user is a registered user transmitted from the center 5 (see FIG. 1) via the
ユーザがセンター5に登録されている場合は、ユーザは携帯電話機1の表示部18に表示される認証ガイドに従ってキー入力部14のキーを操作してパスワード等の認証情報の入力を行うので、制御部13は入力されたパスワード等の認証情報や携帯電話番号を無線信号処理部12および無線送受信部11を介してセンター5宛送信し、センター5での認証を待ち、認証がされるとステップS5に進む(ステップS3)。
When the user is registered in the center 5, the user operates the key of the
ユーザがセンター5に登録されていない場合は、ユーザは携帯電話機1の表示部18に表示される登録ガイドに従ってキー入力部14のキーを操作して立体コンテンツ取得サービスのユーザ登録を行うので、制御部13は入力されたユーザ識別情報、パスワード等からなる認証情報、および携帯電話番号等の登録情報を無線信号処理部12および無線送受信部11を介してセンター5宛送信し、ステップS5に進む(ステップS4)。
When the user is not registered in the center 5, the user operates the keys of the
制御部13は、登録若しくは認証がされた場合に登録済み通知若しくは認証済み通知と共にセンター5から送信される、サービス提供可能な対象物一覧データを無線送受信部11および無線信号処理部12を介して受け取り、表示部18に選択可能に一覧表示してユーザに選択を促す(ステップS5)。
The
ユーザが撮影対象を選択すると、制御部13は、センター5から送信される当該撮影対象物およびユーザの現在位置を示す地図データと、センター5が立体コンテンツを提供するのに必要な情報を無線送受信部11および無線信号処理部12を介して受け取り、一時記憶メモリ21に記憶する(ステップS6)。
When the user selects a shooting target, the
また、制御部13は、受け取った地図データを元にユーザの現在位置および対象物を含む地図(図7(a)参照)を表示部18に表示し(ステップS7)、ユーザの「情報閲覧」操作に応じて、撮影対象画像(ランドマークで示されている)を表示部18に表示すると共に、センター5が立体コンテンツを提供するために不足している撮影方位および撮影位置をその撮影対象画像の周囲に表示する(図7(b)参照)(ステップS8)。
Further, the
ユーザが撮影対象を、ガイダンスにしたがって、撮影位置から図示された撮影方位で対象物を撮影し、キー入力部14のキーを操作して記録指示を行うと、制御部13は、撮影画像と、カメラ位置取得部28で取得した撮影方位データおよび撮影位置データを記録部22に記録する。ユーザは、この撮影操作を必要な画像(つまり、立体コンテンツ生成に不足している画像)を撮影し終わるまで行う(ステップS9)。
When the user shoots an object to be imaged in accordance with the guidance from the shooting position in the illustrated shooting direction and operates the keys of the
制御部13は、ステップS6で取得した対象物の立体コンテンツの生成を行うために不足している撮影位置および撮影方位をキーとして、ステップS9で撮影した画像(記録部22に記録されている画像)を検索し、ヒットした画像およびその画像の撮影位置、および、撮影方位を撮影した対象物の画像と共に無線信号処理部12および無線送受信部11を介してセンター5宛送信する(ステップS10)。
The
制御部13は、センター5から申し込みのあった対象物について立体コンテンツ生成のために必要な撮影画像が揃った旨の通知を受信すると、表示部18にその旨および立体コンテンツの提供方法(立体画像データを受信するか、ミニチュアの提供を受けるか)の選択を促すメッセージを表示してユーザの選択を促し、ユーザが提供方法を選択すると、制御部13は選択結果を無線信号処理部12および無線送受信部11を介してセンター5宛送信する(ステップS11)。
When the
ユーザが立体画像データの受信を選択した場合には、制御部13は、センター5から送信される立体画像データを無線送受信部11および無線信号処理部12を介して受け取り、記録部22に記録すると共に、上記の画像表示プログラムにより表示部18に対象物を立体的に表示する(ステップS12)。
When the user selects reception of stereoscopic image data, the
(変形例)
なお、立体コンテンツ取得サービス選択時の携帯電話機1の動作の変形例として、ステップS8を、「ユーザが携帯電話機1を帯同して、撮影対象物の付近を移動している際に、制御部13はステップS6で取得した情報に含まれる撮影位置と、カメラ位置取得部28で取得する現在位置とを比較し、ほぼ一致するとスピーカ27(または図示しないバイブレータ)を駆動して、その旨を報知すると共に、表示部18に撮影のためのガイダンスを表示する」ように構成し、ステップS9を、「ユーザが報知された地点で、撮影ガイダンスに示された撮影方位で対象物を撮影すると、制御部13は、撮影画像と、カメラ位置取得部28で取得した撮影位置(現在位置)および撮影方位を無線信号処理部12および無線送受信部11を介してセンター5宛送信する」ように構成し、ステップS10を「上記ステップS8、S9の動作を、センター5から立体コンテンツを作成するための撮像画像が揃った旨の通知を受信するまで繰り返す」ように構成してもよい。
(Modification)
Note that, as a modification of the operation of the
図7は、立体コンテンツ提供サービス開始時に携帯電話機1に表示されるサービス開始情報等の一例を示す図であり、図7(a)は、ユーザ(カメラ)の現在位置(星印で示されている)71およびランドマークで示される撮影すべき対象物7を含む地図表示の例であり、図7(b)は撮影すべき対象物7付近における必要な撮影位置(#1〜#3で表されている地点)76および撮影方位(矢印)77、およびガイドメッセージ78を表示した撮影案内画面の例である。
FIG. 7 is a diagram illustrating an example of service start information displayed on the
図8は、センター5のサーバー3の動作例を示すフローチャートであり、サーバー3は制御プログラム、通信制御プログラム、立体コンテンツ提供サービス用のセンター側動作プログラム、立体コンテンツ生成プログラム等の動作プログラムに基づいて、図8に示すような動作(機能)を実行する。
FIG. 8 is a flowchart showing an operation example of the
図8で、インターネット6を介して携帯電話機1からのサービス選択通知およびユーザ情報を受信すると(ステップT1)、制御部31は保存メモリ36の登録ファイルを検索して登録ユーザか否かを調べ、登録ユーザの場合は登録者認証のための認証要求をインターネット6を介して携帯電話機1に送信する。また、登録ユーザでない場合は登録要求を上記選択通知送信元の携帯電話機1に送信し、T1に戻る(ステップT2)。
In FIG. 8, when the service selection notification and user information are received from the
次に、携帯電話機1から登録情報を受信すると(ステップT3)、制御部13は、保存メモリ36の登録ファイルに受信した登録情報を登録してユーザ登録を終了し、ステップT7に進む(ステップT4)。
Next, when registration information is received from the mobile phone 1 (step T3), the
また、認証情報を受信すると(ステップT5)、制御部13は、受信した認証情報に含まれる登録者識別情報およびパスワード等の認証データと保存メモリ36の登録ファイルに記憶されている登録者識別情報および認証データを比較して認証結果を認証情報送信元の携帯電話機1に送信する。この際、認証できた場合はステップT7に進み、認証できなかった場合はステップT1に戻る(ステップT6)。
When the authentication information is received (step T5), the
また、ステップT4での登録処理が終了するか、ステップT7で登録者の認証ができた場合は、サーバー3は、センター5でサービス提供可能な対象物一覧データを登録/認証情報送信元の携帯電話機1に送信する(ステップT7)。
In addition, when the registration process in step T4 ends or the registrant can be authenticated in step T7, the
対象物一覧データ送信先の携帯電話機1から選択され対象物の識別情報を受信すると(ステップT8)、制御部31は、受信した対象物の識別情報でデータベース4の対象物別撮影画像レコード40を検索し、ヒットした対象物別撮影画像レコード40の対象物の立体画像ポインタ43を調べ、この立体画像ポインタ43に無効値が記憶されている場合は、撮影方位データ45−1〜45−m、撮影位置データ46−1〜46−mを調べ、無効値でないポインタを元に、撮影方位および撮影位置を取り出し、カメラ位置情報解析部35に渡す(ステップT9)。
When the identification information of the target selected from the
カメラ位置情報解析部35は、ステップT9でデータベース4から取り出した撮影方位および撮影位置の組み合わせを調べ、立体コンテンツ(立体画像データ)の生成に必要な画像枚数、撮影方位および撮影位置を満たしているか否かを解析し、不足している場合は不足している撮影方位および撮影位置を算出する。制御部31は対象物の地図データをデータベース4から取り出し、その地図データとカメラ位置情報解析部35の解析結果(立体コンテンツに必要な画像を撮影するための撮影方位、及び、撮影位置)を対象物の識別情報送信元の携帯電話機1に送信し、ステップT1に戻る(ステップT10)。
なお、カメラ位置情報解析部35による不足している撮影方位および撮影位置の解析は、例えば、背景技術の項で述べた、(1)〜(3)の手順のうち、(1)において、2つ既知のカメラ位置と1つの未知のカメラ位置の3点を想定し、未知のカメラ位置の計算を3点の位置関係を組み合わせて決定される方程式を解くことにより求め、順次、未知のカメラ位置を求めていくことで、算出することができる。
The camera position
Note that the analysis of the shooting direction and shooting position which are insufficient by the camera position
携帯電話機1から、対象物の撮影画像データ、その画像の撮影時の撮影方位、撮影位置を受信すると(ステップT11)、制御部31は、受信したデータを一時記憶メモリ32に記録すると共に、対象物の識別情報でデータベース4の対象物別撮影画像レコード40を検索し、ヒットした対象物別撮影画像レコード40の対象物の撮影画像ポインタ44−1〜44−m、撮影方位データ45−1〜45−m、撮影位置データ46−1〜46−mのうち無効値でないポインタを元に、画像データ、撮影方位および撮影位置(座標データ)を順次取り出し、立体画像データ生成プログラムにより、一時記憶メモリ32に記録した対象物の撮像画像、撮影位置、及び、撮影方位と、データベース4から取り出した対象物の撮像画像、撮影位置、撮影方位とに基づいて、撮影画像から対象物画像と背景画像とを分離し、対象物画像のシルエット(輪郭)の抽出を行い、次に、撮影位置、及び、撮影方位と、上記抽出した輪郭情報に基づいて、3次元ボクセル空間へのボーティング処理により3次元計上を再構成し、得られたボクセルデータから、ポリゴン(多角形)データへ変換し、三角ポリゴン表現形式やSSF形式などの、立体コンテンツを生成し、一時記憶メモリ32およびデータベース4の対象物別撮影画像レコード40の対象物の立体画像ポインタ43を元に立体画像データ記憶領域48の対応する部分を上書き記憶し、立体コンテンツ生成用の画像が揃った旨を撮影画像データ等送信元の携帯電話機1に送信し、ステップT1に戻る(ステップT12)。
When the photographed image data of the object, the photographing orientation at the time of photographing the image, and the photographing position are received from the mobile phone 1 (step T11), the
また、対象物の画像データ送信元の携帯電話機1から立体コンテンツの提供方法の選択結果を受信すると(T13)、制御部31は受信選択結果を調べ、「立体画像データ受信」が選択されている場合はステップT15に進み、「ミニチュア受け取り」が選択されている場合はステップT16に進む(ステップT14)。
When the selection result of the stereoscopic content providing method is received from the
「立体画像データ受信」が選択されていた場合は、ステップT7で一時記憶メモリ32に記憶した立体画像データを選択結果送信元の携帯電話機1に送信すると共に、課金処理を行いステップT1に戻る(ステップT15)。
If “receive stereoscopic image data” is selected, the stereoscopic image data stored in the
「ミニチュア受け取り」が選択されていた場合は、制御部31は、ステップT7で一時記憶メモリ32に記憶したデータから、ミニチュア製作用データ作成プログラムにより外部ミニチュア製作用装置で用いる製作用データを作成し、図示しない媒体記録装置によりCD等の記録媒体に作成した加工用データを記録すると共に、課金処理を行い、ステップT1に戻る(ステップT16)。
If “Miniature Receipt” is selected, the
1 カメラ機能付携帯電話機(表示装置)
3 サーバー
4 データベース
5 センター
13,31 制御部
15 撮像部
18 表示部
22 記録部
28 カメラ位置取得部
32 保存メモリ
35 カメラ位置情報解析部
1 Mobile phone with camera function (display device)
3 Server 4 Database 5
Claims (6)
対象物を撮影するための撮影位置、または、この対象物を撮影するための撮影方位の少なくとも一方を受信する第1の受信手段と、
この第1の受信手段によって受信された撮影位置、または、撮影方位の少なくとも一方に沿って撮像された前記対象物の撮像画像を前記記憶手段から読み出す読出手段と、
この読出手段によって読み出された撮像画像を、前記対象物を立体的に表示させるためのデータを生成するセンターへ送信する送信手段と、
この送信手段による前記対象物の画像の送信に応答して、前記センターから送信される前記対象物を立体的に表示させるためのデータを受信する第2の受信手段と、
この第2の受信手段によって受信されたデータに基づいて、前記対象物を立体的に表示する立体表示手段と、
を備えることを特徴とする表示装置。 Storage means for storing captured images;
First receiving means for receiving at least one of a shooting position for shooting a target object or a shooting direction for shooting the target object;
Reading means for reading out the captured image of the object taken along at least one of the photographing position or the photographing direction received by the first receiving means from the storage means;
A transmission unit that transmits the captured image read by the reading unit to a center that generates data for displaying the object three-dimensionally;
In response to transmission of the image of the object by the transmission means, second receiving means for receiving data for stereoscopically displaying the object transmitted from the center;
3D display means for stereoscopically displaying the object based on the data received by the second receiving means;
A display device comprising:
前記記憶手段は、この撮像手段によって撮像された前記対象物の撮像画像を記憶することを特徴とする請求項1に記載の表示装置。 An imaging unit that images the object according to at least one of an imaging position or an imaging direction of the object received by the first receiving unit;
The display device according to claim 1, wherein the storage unit stores a captured image of the object captured by the imaging unit.
当該装置の現在位置を取得する現在位置取得手段と、
前記対象物の撮影位置と前記現在位置取得手段によって取得された現在位置とを比較する比較手段と、
この比較手段による比較の結果、前記対象物の撮影位置と前記現在位置とがほぼ一致すると、その旨を報知する報知手段と、
を更に備えることを特徴とする請求項2に記載の表示装置。 The first receiving means receives the shooting position of the object,
Current position acquisition means for acquiring the current position of the device;
Comparison means for comparing the shooting position of the object and the current position acquired by the current position acquisition means;
As a result of the comparison by the comparison means, when the photographing position of the object and the current position substantially coincide with each other, a notification means for notifying that effect,
The display device according to claim 2, further comprising:
撮影端末と、
前記データベースに未だ記憶されていない前記対象物の部分要素があることを前記撮影端末に通知する通知手段と、
この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、
この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、
この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、
この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、
この生成手段によって生成された立体コンテンツを前記撮影端末に送信する手段と、
を備えることを特徴とする立体コンテンツ作成システム。 A database for storing a plurality of subelements that are the basis for generating the stereoscopic content of the object;
A shooting terminal,
Notifying means for notifying the photographing terminal that there is a partial element of the object not yet stored in the database;
Receiving means for receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification by the notifying means;
Extracting means for extracting a partial element from the captured image of the object received by the receiving means;
Determining means for determining whether or not the three-dimensional content of the object can be generated by the partial elements extracted by the extracting means and the plurality of partial elements stored in the database;
If the determination means determines that the three-dimensional content can be generated, a generation means for generating the three-dimensional content of the object;
Means for transmitting the stereoscopic content generated by the generating means to the photographing terminal;
A three-dimensional content creation system comprising:
この通知手段による通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信手段と、
この受信手段によって受信された前記対象物の撮像画像から部分要素を抽出する抽出手段と、
この抽出手段によって抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断手段と、
この判断手段によって前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成手段と、
を備えることを特徴とする立体コンテンツ生成装置。 A notification means for notifying a photographing terminal via a communication network that there is a partial element that has not yet been stored in a database for storing a plurality of partial elements that are a basis for generating a stereoscopic content of an object;
Receiving means for receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification by the notifying means;
Extracting means for extracting a partial element from the captured image of the object received by the receiving means;
Determining means for determining whether or not the three-dimensional content of the object can be generated by the partial elements extracted by the extracting means and the plurality of partial elements stored in the database;
If the determination means determines that the three-dimensional content can be generated, generation means for generating the three-dimensional content of the object;
A three-dimensional content generation device comprising:
この通知ステップでの通知に応答して前記撮影端末にて撮影され、送信される前記対象物の撮像画像を受信する受信ステップと、
この受信ステップにて受信された前記対象物の撮像画像から部分要素を抽出する抽出ステップと、
この抽出ステップにて抽出された部分要素と前記データベースに記憶された複数の部分要素とによって前記対象物の立体コンテンツの生成が可能か否かを判断する判断ステップと、
この判断ステップにて前記立体コンテンツの生成が可能と判断すると、前記対象物の立体コンテンツを生成する生成ステップと、
を含むことを特徴とする立体コンテンツ生成方法。 A notification step of notifying a photographing terminal via a communication network that there is a partial element that is not yet stored in a database for storing a plurality of partial elements serving as a basis for generating the stereoscopic content of the object;
A reception step of receiving a captured image of the object photographed and transmitted by the photographing terminal in response to the notification in the notification step;
An extraction step of extracting a partial element from the captured image of the object received in the reception step;
A determination step of determining whether or not the three-dimensional content of the object can be generated by the partial elements extracted in the extraction step and the plurality of partial elements stored in the database;
If it is determined in this determination step that the three-dimensional content can be generated, a generation step for generating the three-dimensional content of the object;
A three-dimensional content generation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009005273A JP2010165081A (en) | 2009-01-14 | 2009-01-14 | Display apparatus, and system, apparatus and method for creating three-dimensional content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009005273A JP2010165081A (en) | 2009-01-14 | 2009-01-14 | Display apparatus, and system, apparatus and method for creating three-dimensional content |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010165081A true JP2010165081A (en) | 2010-07-29 |
Family
ID=42581205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009005273A Pending JP2010165081A (en) | 2009-01-14 | 2009-01-14 | Display apparatus, and system, apparatus and method for creating three-dimensional content |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010165081A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160070012A (en) * | 2014-12-09 | 2016-06-17 | (유)도건테크 | Method and system for providing Picture lay out drawings by using three dimensional scan technologies |
JP2017046106A (en) * | 2015-08-25 | 2017-03-02 | オリンパス株式会社 | Imaging apparatus, imaging method, and imaging program |
-
2009
- 2009-01-14 JP JP2009005273A patent/JP2010165081A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160070012A (en) * | 2014-12-09 | 2016-06-17 | (유)도건테크 | Method and system for providing Picture lay out drawings by using three dimensional scan technologies |
KR101715325B1 (en) | 2014-12-09 | 2017-03-13 | (유)도건테크 | Method and system for providing Picture lay out drawings by using three dimensional scan technologies |
JP2017046106A (en) * | 2015-08-25 | 2017-03-02 | オリンパス株式会社 | Imaging apparatus, imaging method, and imaging program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10593014B2 (en) | Image processing apparatus, image processing system, image capturing system, image processing method | |
EP1117256A1 (en) | All-around video output method and device | |
CN109934931B (en) | Method and device for collecting image and establishing target object recognition model | |
CN104365083A (en) | Image processing device, image processing method, and program | |
JP5512378B2 (en) | Object display device, object display system, and object display method | |
EP3972236A1 (en) | Communication terminal, image communication system, method for displaying image, and carrier means | |
EP3962090A1 (en) | Communication terminal, image communication system, method for displaying image, and carrier means | |
US11736802B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
EP3989539B1 (en) | Communication management apparatus, image communication system, communication management method, and carrier means | |
JP5547356B2 (en) | Imaging apparatus, method, storage medium, and program | |
JP6388532B2 (en) | Image providing system and image providing method | |
JP2010198104A (en) | Image display system, portable terminal system, portable terminal equipment, server, and image display method thereof | |
JP2016194783A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2010165081A (en) | Display apparatus, and system, apparatus and method for creating three-dimensional content | |
JP5578719B2 (en) | Information system, terminal device, advertisement output method, and program | |
CN111242107B (en) | Method and electronic device for setting virtual object in space | |
JP7225016B2 (en) | AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal | |
US11825191B2 (en) | Method for assisting the acquisition of media content at a scene | |
JP4734660B2 (en) | Map information apparatus and map information system | |
KR101763938B1 (en) | A method for processing image data based on location information related on view-point and apparatus for the same | |
JP2021089487A (en) | Image processing device, program and image processing system | |
JP4673861B2 (en) | Information display system and information display method | |
JP2020204973A (en) | Information processing device, program, and information processing system | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
JP2019024206A (en) | Image display system, image display device, image display method, and program |