JP7190785B1 - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP7190785B1 JP7190785B1 JP2022130143A JP2022130143A JP7190785B1 JP 7190785 B1 JP7190785 B1 JP 7190785B1 JP 2022130143 A JP2022130143 A JP 2022130143A JP 2022130143 A JP2022130143 A JP 2022130143A JP 7190785 B1 JP7190785 B1 JP 7190785B1
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- information processing
- user input
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】3Dオブジェクトに2D画像を適用した最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高める。【解決手段】3Dオブジェクトを取得する3Dオブジェクト取得部と、対応するメタデータに基づいて2D画像データを取得する画像データ取得部と、3Dオブジェクトに基づく物体の表面に沿うように2D画像データに基づく画像が描画された物体の画像データを生成する画像データ生成部とを備える、情報処理装置が開示される。【選択図】図11A final product (3D object data) obtained by applying a 2D image to a 3D object is improved in artistic quality and originality. A 3D object acquisition unit acquires a 3D object; an image data acquisition unit acquires 2D image data based on corresponding metadata; An information processing apparatus is disclosed that includes an image data generation unit that generates image data of an object on which an image is drawn. [Selection drawing] Fig. 11
Description
特許法第30条第2項適用 令和4年4月14日、SNS(Twitter, Inc.が提供するアプリケーション)にて発表Application of Article 30, Paragraph 2 of the Patent Act Announced on SNS (application provided by Twitter, Inc.) on April 14, 2020
特許法第30条第2項適用 令和4年4月29日、https://metapylon.io/にて発表Application of Patent Law Article 30, Paragraph 2 April 29, 2020, https://metapylon. announced on io/
特許法第30条第2項適用 令和4年4月29日、SNS(Twitter, Inc.が提供するアプリケーション)にて発表Application of Patent Law Article 30, Paragraph 2 Announced on SNS (application provided by Twitter, Inc.) on April 29, 2020
特許法第30条第2項適用 令和4年4月16日、顧客への送付資料により発表Application of Article 30, Paragraph 2 of the Patent Law Announced on April 16, 2022 in materials sent to customers
本開示は、情報処理装置及びプログラムに関する。 The present disclosure relates to an information processing device and a program.
3Dモデル化オブジェクトを表す細分割曲面上に2D画像に基づくエングレーブを形成する技術が知られている。 Techniques for forming 2D image-based engravings on subdivision surfaces representing 3D modeled objects are known.
上記のような従来技術は、量産を前提とした工業製品への適用に特化しており、2D画像と3D画像とを組み合わせた最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることが難しい。 The above-mentioned conventional technologies are specialized for application to industrial products on the premise of mass production, and it is difficult to improve the artistry and originality of the final product (3D object data) that combines 2D images and 3D images. .
そこで、本開示は、3Dオブジェクトに2D画像を適用した最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることを目的とする。 Therefore, an object of the present disclosure is to enhance the artistry and originality of a final work (3D object data) in which a 2D image is applied to a 3D object.
1つの側面では、3Dオブジェクトを取得する3Dオブジェクト取得部と、
対応するメタデータに基づいて2D画像データを取得する画像データ取得部と、
前記3Dオブジェクトに基づく物体の表面に沿うように前記2D画像データに基づく画像が描画された前記物体の画像データを生成する画像データ生成部とを備える、情報処理装置が提供される。
In one aspect, a 3D object acquisition unit that acquires a 3D object;
an image data acquisition unit that acquires 2D image data based on corresponding metadata;
An information processing apparatus is provided, comprising an image data generation unit that generates image data of the object in which an image based on the 2D image data is drawn along a surface of the object based on the 3D object.
本開示によれば、3Dオブジェクトに2D画像を適用した最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることが可能となる。 According to the present disclosure, it is possible to enhance the artistry and originality of a final work (3D object data) in which a 2D image is applied to a 3D object.
以下、添付図面を参照しながら各実施例について詳細に説明する。 Each embodiment will be described in detail below with reference to the accompanying drawings.
なお、以下の説明において、「3D」や「2D」は、「3次元」や「2次元」に係るDimensionを表す。 In the following description, "3D" and "2D" represent dimensions related to "three dimensions" and "two dimensions."
図1は、一実施例による情報処理システム1の全体構成の概略図である。
FIG. 1 is a schematic diagram of the overall configuration of an
情報処理システム1は、情報処理サーバ100を含む。
The
情報処理サーバ100は、ネットワーク4を介して各ユーザ端末21と通信可能である。すなわち、ユーザ端末21及び情報処理サーバ100は、ネットワーク4を介して接続される。以下では、特に言及しない限り、ユーザとは、ある1つ以上のユーザ端末21に対応付けられた一のユーザを指す。
The
ネットワーク4は、インターネット、WAN(Wide Area Network)、無線通信網、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでもよい。なお、ネットワーク4には、クラウドサーバ91が接続されている。また、ネットワーク4の一部又は全部は、P2Pネットワークにより実現されてもよい。
The
ユーザ端末21は、例えばスマートフォンや携帯電話であるが、ウェアラブル端末(例えばスマートウォッチ、リング等)、タブレット端末、ラップトップ端末、デスクトップ端末等であってもよい。
The
ユーザ端末21は、表示部24を備える。表示部24は、液晶ディスプレイや、有機EL(Electro-Luminescence)ディスプレイ等であってよい。
The
情報処理サーバ100は、サーバの形態であり、例えばサーバコンピュータにより形成される。情報処理サーバ100は、複数のサーバコンピュータにより実現されてもよい。例えば、情報処理サーバ100は、互いに異なる場所に配置された複数のサーバコンピュータが協動することで実現されてもよい。また、情報処理サーバ100は、Webサーバを含んでよい。この場合、後述するユーザ端末21の機能の一部は、Webサーバから受領したHTML文書やそれに付随する各種プログラム(Javascript)をブラウザが処理することによって実現されてもよい。
The
図2は、情報処理サーバ100のハードウェア構成の一例を示す図である。なお、ユーザ端末21のハードウェア構成自体は、表示部24を備える以外は、情報処理サーバ100のハードウェア構成と同様であってよい。ただし、情報処理サーバ100については、表示部を有してもよい。
FIG. 2 is a diagram showing an example of the hardware configuration of the
図2に示す例では、情報処理サーバ100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、及び入力部107を含む。
In the example shown in FIG. 2 , the
制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。
The
主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
The
補助記憶部103は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
The
ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。
A
記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して情報処理サーバ100にインストールされる。インストールされた所定のプログラムは、情報処理サーバ100により実行可能となる。
A
ネットワークI/F部106は、ネットワーク4を介して接続された通信機能を有する周辺機器やユーザ端末21等と情報処理サーバ100とのインターフェースである。
The network I/
入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやタッチパッド等を有する。
The
なお、図2に示す例において、以下で説明する各種処理等は、プログラムを情報処理サーバ100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を情報処理サーバ100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、記録媒体105は、CD(Compact Disc)-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等であってよい。
Note that, in the example shown in FIG. 2, various processes and the like described below can be realized by causing the
図3は、本実施例におけるユーザ端末21、情報処理サーバ100(図3では、「ブラウザ」と表記)、及びクラウドサーバ91間での情報やデータのやり取りであって、新たな3Dオブジェクトが保存されるまでの処理の一例の流れを概略的に示すタイミングチャートである。図4~図8は、図3の説明図である。
FIG. 3 shows the exchange of information and data among the
以下の図3に関する説明等において、特に言及しない限り、一のユーザに関する処理を説明するが、他のユーザに関する処理も同様である。また、以下の情報処理サーバ100の機能は、ブラウザ上の専用エディタにより実現されてもよい。
In the following description of FIG. 3 and the like, processing for one user will be described unless otherwise specified, but processing for other users is the same. Also, the following functions of the
図3では、まず、ユーザは、ユーザ端末21を利用して、サービス上から権利を購入する(ステップS30)。なお、購入は、通常の決済態様で実現されてもよいし、スマートコントラクト等を介して実現されてもよい。なお、決済には、任意の通貨が利用されてよい。
In FIG. 3, first, the user uses the
ステップS30の権利購入に応答して、情報処理サーバ100は、3Dオブジェクト(図3では、“オリジナル3D”と表記)をクラウドサーバ91から取得する(読み込む)(ステップS32、S34)。この際、情報処理サーバ100は、ユーザが閲覧できる態様で、取得した3Dオブジェクトを表示してよい(ステップS36)。図4には、3Dオブジェクトの一例として、パイロンを模した3Dオブジェクト(以下、単に「パイロン」とも称する)が図示されている。図4に示す例では、パイロンの表面上には何も描画されておらず(すなわち無地のキャンバスである)。しかしながら、変形例では、購入時のパイロンには、何らかのデザインや文字等がすでに描画されていてもよい。また、図4に示す例では、パイロンは、例えば白地であるが、他のカラーが付与されてもよいし、模様が付与されてもよい。また、図4に示す例では、パイロンは、平滑な表面を有するが、凹凸やテクスチャーが付与されてもよい。なお、パイロンは、購入画面等において、2D画像で表示されてもよいし、2D画像の組み合わせによりパイロンのアニメーション表示が可能とされてもよい。
In response to the right purchase in step S30, the
ついで、ユーザは、ユーザ端末21を利用して、貼り付け対象の2D画像(図3は、“読込画像”と表記)を選択する(ステップS38)。図5には、ユーザ端末21としてスマホを利用した場合の選択用ユーザインタフェース(以下、「選択UI」と称する)の一例が示されている。図5の場合、選択UIは、ユーザが所有する2D画像データに対応付けられている複数の2D画像の表示G51~G54と、複数の2D画像の表示G51~G54にそれぞれ対応付けられる選択ボタンB51~B54とを含む。図5では、選択ボタンB51~B54は、対応する表示G51~G54自体であり、タップ等の操作が可能である。ただし、変形例では、複数の2D画像の表示G51~G54にそれぞれ対応付けられる別の位置に、選択ボタンB51~B54が設定されてもよい。また、選択UIは、2D画像の表示G51~G54以外の、2D画像の表示が閲覧できるようにスクロール等が可能とされてもよい。なお、2D画像の表示G51~G54は、対応する2D画像データを識別可能な態様で表す表示であればよく、対応する2D画像データに基づいて生成されてもよいし、対応する2D画像データとは異なる画像データに基づいて生成されてもよい。なお、対応する2D画像データに基づいて生成される場合、2D画像データ自体は、対応するメタデータに基づいて取得されてよい。
Next, the user uses the
ここで、ユーザにより選択可能な貼り付け対象の2D画像は、好ましくは、NFTとして発行された作品に関連し、ユーザが所有者である。この場合、貼り付け対象の2D画像は、複製が実質的に不能であり、代替不可能性(唯一無二さ)が高い画像である。このように、選択UIに表示される複数の2D画像の表示は、ユーザが所有するNFTに係る2D画像に係る表示であってよい。 Here, the user-selectable 2D image to be pasted is preferably associated with a work published as an NFT and owned by the user. In this case, the 2D image to be pasted is an image that is substantially impossible to duplicate and highly non-substitutable (unique). In this way, the display of the plurality of 2D images displayed on the selection UI may be the display of the 2D image associated with the NFT owned by the user.
ステップS38のユーザ選択に応答して、情報処理サーバ100は、選択された貼り付け対象の2D画像を読み込む(図3は、“2D読込”と表記)(ステップS40)。2D画像は、対応するメタデータに基づいて取得されてもよい。例えば、NFTに係る2D画像は、P2P分散型ファイルシステム(例えばIPFS(InterPlanetary File System))又はその類から取得されてよい。そして、情報処理サーバ100は、読み込んだ2D画像を3次元に変換し、対応する3D画像を生成する(ステップS42)。ついで、オリジナル3D上の3D画像の貼り付け場所を決定する(ステップS44)。なお、貼り付け場所は、ユーザにより指定されてよい。また、3Dオブジェクトにおける2D画像の貼り付け場所や向き等は、後述するように各種の調整が可能とされてもよい。
In response to the user's selection in step S38, the
図6には、貼り付け場所を指定する際のユーザインタフェース(以下、「貼り付けUI」と称する)の一例が示されている。図6に示す例では、オリジナル3D上の3D画像の貼り付け場所が、貼り付け対象の2D画像とともに、視覚的に示されている。ユーザは、貼り付け位置以外にも、向きやサイズ、レイヤー等が変更可能であってよい。また、ユーザは、通常的なCAD(Computer Aided Design)等の3Dビューワーと同じように、回転やパンなどビューを自由に変えることが可能であってよい。レイヤーは、2つ以上の2D画像を重ねて貼り付ける場合のレイヤーに関する。なお、図6に示す例では、貼り付けUIは、比較的大きい画面用(例えばPC画面用)であり、選択UIを含んでいる。この場合、ユーザは、選択UI内の所望の2D画像をドラッグして右側の貼り付けUI内に移動させることで、貼り付け対象の2D画像として選択可能であってもよい。また、ユーザは、貼り付けUI内で2D画像の位置や向き等を適宜変更可能とされてよい。 FIG. 6 shows an example of a user interface (hereinafter referred to as "paste UI") for specifying a paste location. In the example shown in FIG. 6, the paste location of the 3D image on the original 3D is visually indicated along with the 2D image to be pasted. The user may be able to change the orientation, size, layer, etc., in addition to the pasting position. Also, the user may be able to freely change the view, such as rotation and panning, in the same way as with a normal 3D viewer such as CAD (Computer Aided Design). A layer relates to a layer when pasting two or more 2D images on top of each other. Note that in the example shown in FIG. 6, the paste UI is for a relatively large screen (for example, for a PC screen) and includes a selection UI. In this case, the user may be able to select a 2D image to be pasted by dragging a desired 2D image in the selection UI and moving it into the paste UI on the right. Also, the user may be able to appropriately change the position, orientation, etc. of the 2D image within the paste UI.
なお、図6に示す例では、貼り付け対象の2D画像は、矩形の外形を有するが、図7に示すように、シールをイメージできるような態様で、画像の外形に沿った輪郭線L1を有してもよい。 In the example shown in FIG. 6, the 2D image to be pasted has a rectangular contour, but as shown in FIG. may have.
ついで、情報処理サーバ100は、オリジナル3Dの表面(貼り付け場所の表面)に合わせて画像3Dを湾曲させつつ、オリジナル3Dの表面上に画像3Dを重ねる(重畳する)(ステップS46)。この場合、情報処理サーバ100は、オリジナル3Dの表面上に画像3Dに係る2D画像が貼り付けられた態様で、新たな3Dオブジェクトを生成及び出力する(ステップS48)。以下、このようにしてオリジナル3Dの表面上に、その表面に沿って2D画像を結合(描画)することを、2D画像を“貼り付ける”とも称する。本実施例では、被貼り付け側の3Dオブジェクトは、表面が湾曲しているパイロンであるが、被貼り付け側の3Dオブジェクトは、必ずしも表面全体が湾曲している必要はなく、表面の一部又は全部が平面であってもよい。また、被貼り付け側の3Dオブジェクトは、複数の平面からなる多面体構造を有してもよい。
Next, the
そして、情報処理サーバ100は、このようにして得られた結合結果(図3は、“3D結合”と表記)をクラウドサーバ91に保存させる(ステップS50、ステップS52)。なお、クラウドサーバ91に加えて又は代えて、P2P分散型ファイルシステム(例えばIPFS)又はその類に、新たな3Dオブジェクトに係る2D画像等が保存されてもよい。
Then, the
図8には、3Dオブジェクト(本実施例ではパイロンの形態)の表面上に複数の2D画像G81~G84が貼り付けられた状態が模式的に示されている。図8には、4つの2D画像G81~G84が貼り付けられた状態が示されているが、貼り付け可能な2D画像の数は、任意であり、無制限であってもよいし、貼り付け可能な数が所定条件に応じて設定されてもよい。また、2D画像は、互いに重ねて貼り付けも可能とされてよく、この場合、上に貼り付けられた2D画像は、下の2D画像を隠すように描画されてよい。この際、ユーザは、上述したように、レイヤーを調整することで、各2D画像間のレイヤー(上下関係)を適宜変更可能とされてよい。 FIG. 8 schematically shows a state in which a plurality of 2D images G81 to G84 are pasted on the surface of a 3D object (in the form of a pylon in this embodiment). FIG. 8 shows a state in which four 2D images G81 to G84 are pasted, but the number of 2D images that can be pasted is arbitrary and may be unlimited. number may be set according to a predetermined condition. 2D images may also be allowed to be pasted on top of each other, in which case the 2D image pasted on top may be drawn to hide the 2D image below. At this time, the user may be able to appropriately change the layers (hierarchical relationship) between the 2D images by adjusting the layers as described above.
このようにして生成される3Dオブジェクトは、例えばメタバース空間のような3Dの3次元空間(仮想空間)に配置されてよい。図9には、メタバース空間の地面(オブジェクト)上に、一の2D画像が貼り付けられた状態のパイロンが配置されている。なお、メタバース空間におけるパイロンが配置可能な位置は、ユーザ自身の所有する土地(ランド)内であってもよいし、管理者から許可された位置であってもよい。 A 3D object generated in this way may be placed in a 3D three-dimensional space (virtual space), such as a metaverse space. In FIG. 9, a pylon with one 2D image pasted is placed on the ground (object) in the Metaverse space. It should be noted that the position in which the pylon can be placed in the Metaverse space may be within the land owned by the user, or may be a position permitted by the administrator.
このようして、本実施例によれば、メタデータに基づいて貼り付け対象の2D画像を読み込むことができ、読み込んだ2D画像を3Dオブジェクトに貼り付けることができる。この場合、貼り付け位置やサイズ、向き、複数の2D画像同士の重なり態様、一の3Dオブジェクトに貼り付ける2D画像の数や種類等、ユーザが任意に決定できる。これにより、オリジナルの3Dオブジェクトから得られる最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることができる。また、貼り付け対象の2D画像が、NFTに係る画像である場合は、代替不可能性(唯一無二さ)を更に高めることができる。 Thus, according to the present embodiment, a 2D image to be pasted can be read based on the metadata, and the read 2D image can be pasted to the 3D object. In this case, the user can arbitrarily determine the pasting position, size, orientation, overlapping manner of a plurality of 2D images, the number and types of 2D images to be pasted on one 3D object, and the like. As a result, the artistry and originality of the final work (3D object data) obtained from the original 3D object can be enhanced. In addition, when the 2D image to be pasted is an image related to NFT, it is possible to further increase the irreplaceability (uniqueness).
なお、上述した実施例では、パイロンが被貼り付け側の3Dオブジェクトであるが、被貼り付け側の3Dオブジェクトは、任意であり、ありとあらゆる3D物体を利用できる。また、被貼り付け側の3Dオブジェクトは、必ずしも固定物である必要はなく、可動物であってもよいし、可搬性を有する物体であってもよい。また、被貼り付け側の3Dオブジェクトは、必ずしも形状が変化しない物体である必要はなく、可逆的又は不可逆的な変形が可能な物体であってもよい。 In the above-described embodiment, the pylon is the 3D object on the pasting side, but the 3D object on the pasting side is arbitrary, and any and all 3D objects can be used. Also, the 3D object to be pasted is not necessarily a fixed object, and may be a movable object or an object having portability. Also, the 3D object on the pasting side does not necessarily have to be an object whose shape does not change, and may be an object capable of reversible or irreversible deformation.
例えば図10に示すように、被貼り付け側の3Dオブジェクトは、仮想空間内でアバターのようなキャラクタが身に着けるオブジェクト(例えば帽子に係るオブジェクトOB10)を含んでよい。この場合、ユーザは、自身のアバターが身に着けるオブジェクトを、所望の態様で変更でき、オリジナル性(希少性)や芸術性等を高めることができる。また、このようなアバターが身に着けるオブジェクトは、アバターの動き等に応じて、その形状が動的に変化しうるが、かかる形状の変化に追従して2D画像が動的に貼り付けられてもよい。 For example, as shown in FIG. 10, the 3D object on the pasting side may include an object worn by a character such as an avatar in the virtual space (for example, an object OB10 related to a hat). In this case, the user can change the object worn by the user's avatar in a desired manner, thereby enhancing originality (rarity), artistry, and the like. Objects worn by such avatars can change their shape dynamically according to the movement of the avatar, and 2D images are dynamically pasted to follow such changes in shape. good too.
また、被貼り付け側の3Dオブジェクトのサイズは、ユーザにより可変とされてもよいし、複数種類のサイズの3Dオブジェクトがあらかじめ用意されてもよい。また、被貼り付け側の3Dオブジェクトのサイズは、貼り付け対象の2D画像のサイズや貼り付け数に応じて変更可能とされてもよい。 Also, the size of the 3D object to be pasted may be variable by the user, or 3D objects of a plurality of sizes may be prepared in advance. Also, the size of the 3D object to be pasted may be changeable according to the size of the 2D image to be pasted and the number of pastings.
なお、図3に示す例では、ステップS42で、2D画像を3次元に変換し、対応する3D画像を生成してから、ステップS44で、3Dオブジェクトにおける貼り付け位置が指定されているが、これに限られない。例えば、3Dオブジェクトにおける貼り付け位置が指定されてから、対応する3D画像が生成されてもよいし、対応する3D画像を経由せずに、2D画像を3Dオブジェクトに貼り付けることとしてもよい。また、上述した特開2016-157429号公報に記載されるような技術を利用して、3Dオブジェクトの表面に2D画像を貼り付けてもよい。 Note that in the example shown in FIG. 3, the 2D image is converted to 3D in step S42 and the corresponding 3D image is generated, and then in step S44, the pasting position in the 3D object is specified. is not limited to For example, the corresponding 3D image may be generated after the pasting position in the 3D object is specified, or the 2D image may be pasted to the 3D object without going through the corresponding 3D image. Alternatively, a 2D image may be pasted on the surface of a 3D object using the technique described in JP-A-2016-157429.
次に、図11以降を参照して、情報処理システム1をさらに説明する。
Next, the
図11は、情報処理システム1の機能の一例を示す概略的なブロック図である。以下では、情報処理システム1の機能は、例えば、情報処理サーバ100により実現されるが、情報処理システム1の機能の一部又は全部は、ユーザ端末21、情報処理サーバ100、及びクラウドサーバ91のうちの、任意の1つ又は2つ以上の組み合わせにより実現されてもよい。
FIG. 11 is a schematic block diagram showing an example of functions of the
情報処理システム1は、図11に示すように、ユーザ入力取得部11、3次元データ取得部12と、画像データ取得部13と、結合画像データ生成部14と、データ管理部15と、ユーザ情報記憶部16と、結合画像記憶部17とを含む。
As shown in FIG. 11, the
ユーザ入力取得部11は、上述した選択UIや貼り付けUI等のような各種UIを介して、ユーザ入力を取得する。なお、ユーザ入力は、タッチパネル等のような通常的なユーザインタフェースに加えて又は代えて、音声やジェスチャ(モーションキャプチャ)等を介して取得されてもよい。
The user
3次元データ取得部12は、上述した3Dオブジェクト(例えばパイロンのような被貼り付け側の3Dオブジェクト)のデータを取得する。なお、3Dオブジェクトの保存場所は、情報処理サーバ100内であってもよいし、他のサーバであってもよい。また、3Dオブジェクトは、ユーザ等により新たに生成されることで取得されてもよい。
The three-dimensional
画像データ取得部13は、3Dオブジェクトに貼り付け可能な2D画像を取得する。例えば、画像データ取得部13は、上述したように、選択UIを介してユーザにより選択された2D画像を取得してもよい。あるいは、画像データ取得部13は、選択UIの生成時に、ユーザの所有する2D画像のすべて又は一部を取得してもよい。
The image
なお、ユーザは、3Dオブジェクトに貼り付け可能な2D画像を任意のマーケットプレイスで取得(購入)してもよいし、自身でオリジナルに作成することで取得してもよいし、取得方法は任意である。例えば、図12に示すように、3Dオブジェクトに貼り付け可能な2D画像は、パッケージングされた形態でインターネット上のマーケットプレイス等にて販売されてもよい。また、3Dオブジェクトとセットで販売されてもよい。 Note that the user may obtain (purchase) a 2D image that can be pasted on a 3D object from any marketplace, or may obtain it by creating an original image by himself or herself, or any acquisition method may be used. be. For example, as shown in FIG. 12, a 2D image that can be attached to a 3D object may be sold in a packaged form on a marketplace or the like on the Internet. It may also be sold as a set with the 3D object.
結合画像データ生成部14は、上述したように2D画像が貼り付けられた3Dオブジェクト(以下、「結合画像データ」とも称する)を生成する。図13は、結合画像データの生成方法の一例のフローチャートである。なお、図13に示す生成方法は、図3に示したステップS40~ステップS48の処理の具体例として適用できる。
The combined image
図13に示す例では、結合画像データ生成部14は、2D画像に係る画像2Dファイルを読込み(ステップS131)、オリジナルの3Dオブジェクトの表面の貼り付け場所(図13では、「オリジナル3D曲面貼り付け場所」と表記)がユーザにより指定される(ステップS132)。結合画像データ生成部14は、貼り付け場所に係る表面のデータ量を測定(算出)する(ステップS133)とともに、画像2Dファイルのデータ量を測定(算出)する(ステップS134)。そして、結合画像データ生成部14は、オリジナルの3Dオブジェクトの表面(曲面)に係るデータ量から、画像2Dファイルのデータ量を補間する(ステップS135)。また、結合画像データ生成部14は、画像2Dに奥行きデータを追加する(ステップS136)ことで、画像2Dデータを画像3Dデータに変換する(ステップS137)。そして、結合画像データ生成部14は、オリジナルの3Dオブジェクトの表面データを、変換後の画像3Dデータで上書きする(ステップS138)ことで、新しい3Dデータ(すなわち結合画像データ)を生成し出力する(ステップS139)。
In the example shown in FIG. 13, the combined image
なお、図13では、示されていないが、ユーザからの貼り付け場所(位置)の変更や向き、サイズの変更指示があった場合は、新たな貼り付け場所等の指示に基づいて、ステップS132からの処理が同様に実行されてよい。 Although not shown in FIG. 13, if the user instructs to change the pasting place (position) or to change the orientation or size, step S132 is executed based on the instruction of the new pasting place or the like. may be similarly performed.
このように結合画像データ生成部14は、3D画像技術(2Dから3Dへの変換、及び3Dオブジェクトの貼り付け)で画像補間を行い、2Dデータと3Dデータの差異をなくす機能を有する。
In this way, the combined image
データ管理部15は、結合画像データ生成部14により結合画像データが生成された場合に、結合画像データの生成に利用された2D画像に対して、その旨(貼り付け済みであること)を表す所定情報を対応付ける。例えば、データ管理部15は、貼り付け済みを表す所定情報を表すフラグを、結合画像データの生成に利用された2D画像に対して対応付けてよい。
When the combined image data is generated by the combined image
データ管理部15は、所定情報が対応付けられている2D画像に対しては、当該2D画像を利用した結合画像データ生成部14による新たな結合画像データの生成を禁止してもよい。この場合、ある一の2D画像が貼り付け可能な3Dオブジェクトは、1つだけになり、当該一の2D画像の希少性等にも起因して、生成可能な結合画像データ(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることができる。
The
本実施例において、3Dオブジェクトに貼り付けられた2D画像は、ユーザ入力に基づいて、引き剥がしが可能とされてもよい。データ管理部15は、3Dオブジェクト上に描画された2D画像が削除された場合(すなわち剥がされた場合)に、3Dオブジェクト上から削除された2D画像に対する所定情報の対応付け状態を解除してもよい。すなわち、3Dオブジェクト上から削除された2D画像は、再び、3Dオブジェクト上に貼り付け可能となる。これにより、ユーザによる貼り付け直しなどが可能となり、利便性が向上する。
In this embodiment, a 2D image attached to a 3D object may be peelable based on user input. When the 2D image drawn on the 3D object is deleted (that is, when the 2D image is peeled off), the
ユーザ情報記憶部16は、各ユーザのユーザ情報を記憶する。ユーザ情報は、任意であるが、例えば図14に示すように、ユーザ名(又はユーザID)ごとに、コレクション、貼り付け状態、保存場所等の情報を含んでよい。この場合、コレクションは、対応するユーザが所有する2D画像を表す。貼り付け状態は、対応する2D画像の状態を表し、上述した所定情報(結合画像データの生成に利用されていることを表す情報)に対応する“Pasted”状態や、それ以外の“Not Pasted”状態を表してよい。また、貼り付け状態の情報は、“Pasted”状態を表す場合、貼り付けられた3Dオブジェクトを特定する情報を含んでもよい。保存場所は、対応する2D画像の保存場所を表す情報であり、対応する2D画像のメタデータから生成されてよい。また、保存場所の情報は、対応するメタデータ自体であってもよい。なお、保存場所の情報は、対応するURL(Uniform Resource Locator)を含んでよい。
The user
このようなユーザ情報は、データ管理部15により適宜更新されてよい。例えば、データ管理部15は、ユーザが新たな2D画像を購入した場合、新たな2D画像をコレクションに追加し、それに対応する保存場所等の情報を追加してよい。なお、購入した2D画像は、貼り付け可能な状態(すなわち“Not Pasted”状態)であるが、貼り付け不能な状態“Pasted”状態で流通される場合もありうる。このような貼り付け状態は、マーケットプレイスで識別可能に表示されてもよく、また、その価格に反映されてもよい。
Such user information may be appropriately updated by the
また、ユーザ情報は、ユーザ入力取得部11や画像データ取得部13により利用されてよい。例えば、ユーザ入力取得部11は、上述した選択UIを生成する際に、ユーザ情報のコレクションに基づいて、ユーザが所有する2D画像を特定してよい。また、この際、ユーザ入力取得部11は、ユーザ情報の貼り付け状態に基づいて、各2D画像が貼り付け可能か否かの情報を、選択UIに追加的に出力してもよい。例えば、貼り付け不能な2D画像は、“Pasted”といった文字が付与されてもよいし(図6参照)、対応する選択ボタン(図5の選択ボタンB51~B52参照)が非アクティブ化されてもよい。あるいは、ユーザ入力取得部11は、ユーザ情報の貼り付け状態に基づいて、貼り付け可能な2D画像に係る表示(図5の表示G51~G54参照)を出力してもよい。また、画像データ取得部13は、上述した選択UIを生成する際に、ユーザ情報のコレクションに基づいて、ユーザが所有する2D画像とともに保存場所を特定し、特定した2D画像を、対応する保存場所から取得してよい。
Also, the user information may be used by the user
結合画像記憶部17は、上述したように結合画像データ生成部14により生成される結合画像データが記憶される。なお、結合画像記憶部17の機能の一部又は全部は、上述したように他のシステム(例えばP2P分散型ファイルシステム)やサーバにより実現されてもよい。なお、結合画像データ生成部14により生成される結合画像データに対しては、NFT化されてもよい。また、この場合も、図12に示した形態のように、結合画像データは、パッケージングされた形態で販売等されてもよい。
The combined
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes are possible within the scope described in the claims. It is also possible to combine all or more of the constituent elements of the above-described embodiments.
例えば、上述した実施例では、3Dオブジェクトに貼り付けられる2D画像は、静止画であるが、動画やアニメーションに適用されてもよい。 For example, in the above-described embodiment, the 2D image pasted on the 3D object is a still image, but it may be applied to a moving image or animation.
また、上述した実施例では、3Dオブジェクトに2D画像を貼り付けてから、当該3Dオブジェクトをメタバース空間等に配置可能としているが、メタバース空間にすでに配置されている3Dオブジェクトに対して、同様の態様で2D画像を貼り付け可能としてもよい。 Further, in the above-described embodiment, after a 2D image is attached to a 3D object, the 3D object can be placed in the metaverse space or the like. A 2D image may be pasted with .
1 情報処理システム
4 ネットワーク
11 ユーザ入力取得部
12 3次元データ取得部
13 画像データ取得部
14 結合画像データ生成部(画像データ生成部)
15 データ管理部
16 ユーザ情報記憶部
17 結合画像記憶部
21 ユーザ端末
24 表示部
91 クラウドサーバ
100 情報処理サーバ
101 制御部
102 主記憶部
103 補助記憶部
104 ドライブ装置
105 記録媒体
106 ネットワークI/F部
107 入力部
1
15
Claims (10)
対応するメタデータに基づいて2D画像データを取得する画像データ取得部と、
前記3Dオブジェクトに基づく物体の表面に沿うように前記2D画像データに基づく画像が描画された前記物体の画像データを生成する画像データ生成部と、
前記画像データ生成部により前記物体の画像データが生成された場合に、前記物体の画像データの生成に利用された前記2D画像データに対して、その旨を表す所定情報を対応付けるデータ管理部とを備え、
前記データ管理部は、前記所定情報が対応付けられている前記2D画像データを利用した前記画像データ生成部による新たな前記物体の画像データの生成を禁止する、情報処理装置。 a 3D object acquisition unit that acquires a 3D object;
an image data acquisition unit that acquires 2D image data based on corresponding metadata;
an image data generation unit that generates image data of the object in which an image based on the 2D image data is drawn along the surface of the object based on the 3D object;
a data management unit that, when the image data generating unit generates the image data of the object, associates the 2D image data used to generate the image data of the object with predetermined information indicating that fact; prepared,
The information processing device , wherein the data management unit prohibits the image data generation unit from generating new image data of the object using the 2D image data associated with the predetermined information .
前記画像データ生成部は、前記ユーザ入力に基づいて、前記表面上に描画された前記画像を削除可能であり、
前記データ管理部は、前記表面上に描画された前記画像が削除された場合に、削除された前記画像に係る前記2D画像データに対する前記所定情報の対応付け状態を解除する、請求項1に記載の情報処理装置。 further comprising a user input acquisition unit that acquires user input;
The image data generator is capable of deleting the image drawn on the surface based on the user input,
2. The data management unit according to claim 1 , wherein when the image drawn on the surface is deleted, the data management unit cancels the association state of the predetermined information with the 2D image data related to the deleted image. information processing equipment.
前記ユーザ入力は、前記選択ボタンを介して取得される選択入力を含み、
前記画像データ生成部は、前記選択入力に対応した前記2D画像データを利用して前記物体の画像データを生成する、請求項3に記載の情報処理装置。 The user input acquisition unit generates a user interface including display of a plurality of 2D images associated with the 2D image data and selection buttons respectively associated with the display of the plurality of 2D images,
the user input includes a selection input obtained via the selection button;
4. The information processing apparatus according to claim 3 , wherein said image data generator generates image data of said object using said 2D image data corresponding to said selection input.
前記画像データ生成部は、前記ユーザ入力に基づいて、前記表面上における前記画像の位置、向き及びサイズのうちの少なくともいずれか1つを変更可能である、請求項1に記載の情報処理装置。 further comprising a user input acquisition unit that acquires user input;
2. The information processing apparatus according to claim 1, wherein said image data generator can change at least one of a position, orientation and size of said image on said surface based on said user input.
前記画像データ生成部は、前記ユーザ入力に基づいて、複数の前記画像のうちの重なり合う画像間のレイヤーを変更可能である、請求項8に記載の情報処理装置。 further comprising a user input acquisition unit that acquires user input;
9. The information processing apparatus according to claim 8 , wherein said image data generator is capable of changing layers between overlapping images among said plurality of images based on said user's input.
対応するメタデータに基づいて2D画像データを取得し、
前記3Dオブジェクトに基づく物体の表面に沿うように前記2D画像データに基づく画像が描画された前記物体の画像データを生成し、
前記物体の画像データが生成された場合に、前記物体の画像データの生成に利用された前記2D画像データに対して、その旨を表す所定情報を対応付けるとともに、前記所定情報が対応付けられている前記2D画像データを利用した新たな前記物体の画像データの生成を禁止する処理を、コンピュータに実行させるプログラム。
get a 3D object,
obtaining 2D image data based on corresponding metadata;
generating image data of the object in which an image based on the 2D image data is drawn along the surface of the object based on the 3D object;
When the image data of the object is generated, the 2D image data used to generate the image data of the object is associated with predetermined information indicating that fact, and the predetermined information is associated with the 2D image data. A program that causes a computer to execute processing for prohibiting generation of new image data of the object using the 2D image data .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022130143A JP7190785B1 (en) | 2022-08-17 | 2022-08-17 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022130143A JP7190785B1 (en) | 2022-08-17 | 2022-08-17 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7190785B1 true JP7190785B1 (en) | 2022-12-16 |
JP2024027381A JP2024027381A (en) | 2024-03-01 |
Family
ID=84488931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022130143A Active JP7190785B1 (en) | 2022-08-17 | 2022-08-17 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7190785B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325615A (en) * | 2000-05-18 | 2001-11-22 | Sony Corp | Device and method for processing three-dimensional model and program providing medium |
-
2022
- 2022-08-17 JP JP2022130143A patent/JP7190785B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325615A (en) * | 2000-05-18 | 2001-11-22 | Sony Corp | Device and method for processing three-dimensional model and program providing medium |
Non-Patent Citations (4)
Title |
---|
"NFTコンテンツ制作者向けにオリジナルグッズ作成・販売機能提供開始", [ONLINE], JPN7022004873, 23 May 2022 (2022-05-23), ISSN: 0004899276 * |
"NFTコンテンツ制作者向けにオリジナルグッズ作成・販売機能提供開始", [online],2022年05月23日,[令和4年10月7日検索], インターネット<URL: https://suzuri.jp/surisurikun/journals/2022-05-20> |
BENJAMIN, 「BLENDER 2.7 3DCG スーパーテクニック」, vol. 初版, JPN6022043534, 2014, pages 136 - 139, ISSN: 0004899277 * |
Benjamin,「Blender 2.7 3DCG スーパーテクニック」,初版,株式会社ソーテック社,2014年,p.136-139 |
Also Published As
Publication number | Publication date |
---|---|
JP2024027381A (en) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10754515B2 (en) | Systems and methods for 3D scripting language for manipulation of existing 3D model data | |
US7661071B2 (en) | Creation of three-dimensional user interface | |
Mullen | Mastering blender | |
US10839615B2 (en) | Systems and methods for generating and intelligently distributing forms of extended reality content | |
US11348315B2 (en) | Generating and presenting a 3D virtual shopping environment | |
CN106575160A (en) | Method and apparatus for providing interface recognizing movement in accordance with user's view | |
US20170213394A1 (en) | Environmentally mapped virtualization mechanism | |
US10740981B2 (en) | Digital stages for presenting digital three-dimensional models | |
CN108885793A (en) | Ink in electronic document | |
JP6598984B2 (en) | Object selection system and object selection method | |
US20230325068A1 (en) | Technologies for virtually trying-on items | |
KR101523328B1 (en) | Method of providing pose-library for three-dimensional animation character, apparatus performing the same and storage media storing the same | |
US11034092B2 (en) | 3D-printed object with dynamic augmented-reality textures | |
US9639924B2 (en) | Adding objects to digital photographs | |
JP7190785B1 (en) | Information processing device and program | |
Yan et al. | 3d simulation of interior house design in vr using vr3id method | |
CN114299203A (en) | Processing method and device of virtual model | |
US20190311424A1 (en) | Product visualization system and method for using two-dimensional images to interactively display photorealistic representations of three-dimensional objects based on smart tagging | |
KR102541262B1 (en) | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content | |
US11694376B2 (en) | Intuitive 3D transformations for 2D graphics | |
US9633476B1 (en) | Method and apparatus for using augmented reality for business graphics | |
JP2004199130A (en) | Information visualizing method, device, and program | |
Xu et al. | Research on the Digital Promotion and Development of the Achang Forging Skills in Yunnan | |
Elordi et al. | Virtual reality interfaces applied to web-based 3D E-commerce | |
Khan et al. | A 3D Classical Object Viewer for Device Compatible Display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220826 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220926 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7190785 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |