JP7190785B1 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP7190785B1
JP7190785B1 JP2022130143A JP2022130143A JP7190785B1 JP 7190785 B1 JP7190785 B1 JP 7190785B1 JP 2022130143 A JP2022130143 A JP 2022130143A JP 2022130143 A JP2022130143 A JP 2022130143A JP 7190785 B1 JP7190785 B1 JP 7190785B1
Authority
JP
Japan
Prior art keywords
image data
image
information processing
user input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022130143A
Other languages
Japanese (ja)
Other versions
JP2024027381A (en
Inventor
雅弘 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022130143A priority Critical patent/JP7190785B1/en
Application granted granted Critical
Publication of JP7190785B1 publication Critical patent/JP7190785B1/en
Publication of JP2024027381A publication Critical patent/JP2024027381A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】3Dオブジェクトに2D画像を適用した最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高める。【解決手段】3Dオブジェクトを取得する3Dオブジェクト取得部と、対応するメタデータに基づいて2D画像データを取得する画像データ取得部と、3Dオブジェクトに基づく物体の表面に沿うように2D画像データに基づく画像が描画された物体の画像データを生成する画像データ生成部とを備える、情報処理装置が開示される。【選択図】図11A final product (3D object data) obtained by applying a 2D image to a 3D object is improved in artistic quality and originality. A 3D object acquisition unit acquires a 3D object; an image data acquisition unit acquires 2D image data based on corresponding metadata; An information processing apparatus is disclosed that includes an image data generation unit that generates image data of an object on which an image is drawn. [Selection drawing] Fig. 11

Description

特許法第30条第2項適用 令和4年4月14日、SNS(Twitter, Inc.が提供するアプリケーション)にて発表Application of Article 30, Paragraph 2 of the Patent Act Announced on SNS (application provided by Twitter, Inc.) on April 14, 2020

特許法第30条第2項適用 令和4年4月29日、https://metapylon.io/にて発表Application of Patent Law Article 30, Paragraph 2 April 29, 2020, https://metapylon. announced on io/

特許法第30条第2項適用 令和4年4月29日、SNS(Twitter, Inc.が提供するアプリケーション)にて発表Application of Patent Law Article 30, Paragraph 2 Announced on SNS (application provided by Twitter, Inc.) on April 29, 2020

特許法第30条第2項適用 令和4年4月16日、顧客への送付資料により発表Application of Article 30, Paragraph 2 of the Patent Law Announced on April 16, 2022 in materials sent to customers

本開示は、情報処理装置及びプログラムに関する。 The present disclosure relates to an information processing device and a program.

3Dモデル化オブジェクトを表す細分割曲面上に2D画像に基づくエングレーブを形成する技術が知られている。 Techniques for forming 2D image-based engravings on subdivision surfaces representing 3D modeled objects are known.

特開2016-157429号公報JP 2016-157429 A

上記のような従来技術は、量産を前提とした工業製品への適用に特化しており、2D画像と3D画像とを組み合わせた最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることが難しい。 The above-mentioned conventional technologies are specialized for application to industrial products on the premise of mass production, and it is difficult to improve the artistry and originality of the final product (3D object data) that combines 2D images and 3D images. .

そこで、本開示は、3Dオブジェクトに2D画像を適用した最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることを目的とする。 Therefore, an object of the present disclosure is to enhance the artistry and originality of a final work (3D object data) in which a 2D image is applied to a 3D object.

1つの側面では、3Dオブジェクトを取得する3Dオブジェクト取得部と、
対応するメタデータに基づいて2D画像データを取得する画像データ取得部と、
前記3Dオブジェクトに基づく物体の表面に沿うように前記2D画像データに基づく画像が描画された前記物体の画像データを生成する画像データ生成部とを備える、情報処理装置が提供される。
In one aspect, a 3D object acquisition unit that acquires a 3D object;
an image data acquisition unit that acquires 2D image data based on corresponding metadata;
An information processing apparatus is provided, comprising an image data generation unit that generates image data of the object in which an image based on the 2D image data is drawn along a surface of the object based on the 3D object.

本開示によれば、3Dオブジェクトに2D画像を適用した最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることが可能となる。 According to the present disclosure, it is possible to enhance the artistry and originality of a final work (3D object data) in which a 2D image is applied to a 3D object.

一実施例による情報処理システムの全体構成の概略図である。1 is a schematic diagram of an overall configuration of an information processing system according to an embodiment; FIG. 情報処理サーバのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an information processing server. 本実施例における新たな3Dオブジェクトが保存されるまでの処理の一例の流れを概略的に示すタイミングチャートである。4 is a timing chart schematically showing an example of the flow of processing until a new 3D object is saved in this embodiment. パイロンを模した3Dオブジェクトを示す説明図である。FIG. 4 is an explanatory diagram showing a 3D object imitating a pylon; 選択UIの一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of a selection UI; 貼り付けUIの一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of a paste UI; 貼り付け対象の2D画像の別の形態の説明図である。FIG. 11 is an explanatory diagram of another form of a 2D image to be pasted; 3Dオブジェクトの表面上に複数の2D画像が貼り付けられた状態の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a state in which a plurality of 2D images are pasted on the surface of a 3D object; メタバース空間内に配置された3Dオブジェクト(複数の2D画像が貼り付けられた3Dオブジェクト)の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a 3D object (a 3D object to which a plurality of 2D images are pasted) arranged in a metaverse space; 被貼り付け側の3Dオブジェクトの他の例を示す図である。FIG. 10 is a diagram showing another example of a 3D object on the pasting side; 情報処理システムの機能の一例を示す概略的なブロック図である。1 is a schematic block diagram showing an example of functions of an information processing system; FIG. 3Dオブジェクトに貼り付け可能な2D画像の販売形態の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a form of sales of 2D images that can be attached to 3D objects; 結合画像データの生成方法の一例のフローチャートである。4 is a flowchart of an example of a method for generating combined image data; ユーザ情報記憶部内のデータの一例の説明図である。FIG. 4 is an explanatory diagram of an example of data in a user information storage unit;

以下、添付図面を参照しながら各実施例について詳細に説明する。 Each embodiment will be described in detail below with reference to the accompanying drawings.

なお、以下の説明において、「3D」や「2D」は、「3次元」や「2次元」に係るDimensionを表す。 In the following description, "3D" and "2D" represent dimensions related to "three dimensions" and "two dimensions."

図1は、一実施例による情報処理システム1の全体構成の概略図である。 FIG. 1 is a schematic diagram of the overall configuration of an information processing system 1 according to one embodiment.

情報処理システム1は、情報処理サーバ100を含む。 The information processing system 1 includes an information processing server 100 .

情報処理サーバ100は、ネットワーク4を介して各ユーザ端末21と通信可能である。すなわち、ユーザ端末21及び情報処理サーバ100は、ネットワーク4を介して接続される。以下では、特に言及しない限り、ユーザとは、ある1つ以上のユーザ端末21に対応付けられた一のユーザを指す。 The information processing server 100 can communicate with each user terminal 21 via the network 4 . That is, the user terminal 21 and the information processing server 100 are connected via the network 4 . Hereinafter, unless otherwise specified, a user refers to one user associated with one or more user terminals 21 .

ネットワーク4は、インターネット、WAN(Wide Area Network)、無線通信網、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでもよい。なお、ネットワーク4には、クラウドサーバ91が接続されている。また、ネットワーク4の一部又は全部は、P2Pネットワークにより実現されてもよい。 The network 4 may include the Internet, a WAN (Wide Area Network), a wireless communication network, a wired network, or any combination thereof. A cloud server 91 is connected to the network 4 . Also, part or all of the network 4 may be realized by a P2P network.

ユーザ端末21は、例えばスマートフォンや携帯電話であるが、ウェアラブル端末(例えばスマートウォッチ、リング等)、タブレット端末、ラップトップ端末、デスクトップ端末等であってもよい。 The user terminal 21 is, for example, a smart phone or a mobile phone, but may be a wearable terminal (for example, smart watch, ring, etc.), tablet terminal, laptop terminal, desktop terminal, or the like.

ユーザ端末21は、表示部24を備える。表示部24は、液晶ディスプレイや、有機EL(Electro-Luminescence)ディスプレイ等であってよい。 The user terminal 21 has a display section 24 . The display unit 24 may be a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.

情報処理サーバ100は、サーバの形態であり、例えばサーバコンピュータにより形成される。情報処理サーバ100は、複数のサーバコンピュータにより実現されてもよい。例えば、情報処理サーバ100は、互いに異なる場所に配置された複数のサーバコンピュータが協動することで実現されてもよい。また、情報処理サーバ100は、Webサーバを含んでよい。この場合、後述するユーザ端末21の機能の一部は、Webサーバから受領したHTML文書やそれに付随する各種プログラム(Javascript)をブラウザが処理することによって実現されてもよい。 The information processing server 100 is in the form of a server and is formed by, for example, a server computer. The information processing server 100 may be realized by a plurality of server computers. For example, the information processing server 100 may be implemented by cooperation of a plurality of server computers located at different locations. The information processing server 100 may also include a web server. In this case, some of the functions of the user terminal 21, which will be described later, may be realized by the browser processing the HTML document received from the web server and various programs (Javascript) attached thereto.

図2は、情報処理サーバ100のハードウェア構成の一例を示す図である。なお、ユーザ端末21のハードウェア構成自体は、表示部24を備える以外は、情報処理サーバ100のハードウェア構成と同様であってよい。ただし、情報処理サーバ100については、表示部を有してもよい。 FIG. 2 is a diagram showing an example of the hardware configuration of the information processing server 100. As shown in FIG. Note that the hardware configuration itself of the user terminal 21 may be the same as the hardware configuration of the information processing server 100 except that the display unit 24 is provided. However, the information processing server 100 may have a display unit.

図2に示す例では、情報処理サーバ100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、及び入力部107を含む。 In the example shown in FIG. 2 , the information processing server 100 includes a control unit 101 , a main storage unit 102 , an auxiliary storage unit 103 , a drive device 104 , a network I/F unit 106 and an input unit 107 .

制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。 The control unit 101 is an arithmetic device that executes programs stored in the main memory unit 102 and the auxiliary memory unit 103, receives data from the input unit 107 and the memory device, performs calculations and processes, and outputs the data to the memory device. do.

主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。 The main storage unit 102 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The main storage unit 102 is a storage device that stores or temporarily stores programs and data such as an OS (Operating System), which is basic software executed by the control unit 101, and application software.

補助記憶部103は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。 The auxiliary storage unit 103 is an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like, and is a storage device that stores data related to application software and the like.

ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。 A drive device 104 reads a program from a recording medium 105, such as a flexible disk, and installs it in a storage device.

記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して情報処理サーバ100にインストールされる。インストールされた所定のプログラムは、情報処理サーバ100により実行可能となる。 A recording medium 105 stores a predetermined program. A program stored in this recording medium 105 is installed in the information processing server 100 via the drive device 104 . The installed predetermined program can be executed by the information processing server 100 .

ネットワークI/F部106は、ネットワーク4を介して接続された通信機能を有する周辺機器やユーザ端末21等と情報処理サーバ100とのインターフェースである。 The network I/F unit 106 is an interface between the information processing server 100 and a peripheral device having a communication function and the user terminal 21 connected via the network 4 .

入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやタッチパッド等を有する。 The input unit 107 includes a keyboard, a mouse, a touch pad, and the like having cursor keys, numeric input, various function keys, and the like.

なお、図2に示す例において、以下で説明する各種処理等は、プログラムを情報処理サーバ100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を情報処理サーバ100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、記録媒体105は、CD(Compact Disc)-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等であってよい。 Note that, in the example shown in FIG. 2, various processes and the like described below can be realized by causing the information processing server 100 to execute a program. It is also possible to record a program in the recording medium 105 and cause the information processing server 100 to read the recording medium 105 in which the program is recorded, thereby realizing various processes described below. Various types of recording media can be used as the recording medium 105 . For example, the recording medium 105 is a recording medium for optically, electrically or magnetically recording information such as a CD (Compact Disc)-ROM, a flexible disk, a magneto-optical disk, or a recording medium such as a ROM, a flash memory, or the like. It may be a semiconductor memory or the like that electrically records .

図3は、本実施例におけるユーザ端末21、情報処理サーバ100(図3では、「ブラウザ」と表記)、及びクラウドサーバ91間での情報やデータのやり取りであって、新たな3Dオブジェクトが保存されるまでの処理の一例の流れを概略的に示すタイミングチャートである。図4~図8は、図3の説明図である。 FIG. 3 shows the exchange of information and data among the user terminal 21, the information processing server 100 (indicated as “browser” in FIG. 3), and the cloud server 91 in this embodiment, and a new 3D object is stored. 10 is a timing chart schematically showing the flow of an example of processing up to and including; 4 to 8 are explanatory diagrams of FIG. 3. FIG.

以下の図3に関する説明等において、特に言及しない限り、一のユーザに関する処理を説明するが、他のユーザに関する処理も同様である。また、以下の情報処理サーバ100の機能は、ブラウザ上の専用エディタにより実現されてもよい。 In the following description of FIG. 3 and the like, processing for one user will be described unless otherwise specified, but processing for other users is the same. Also, the following functions of the information processing server 100 may be realized by a dedicated editor on the browser.

図3では、まず、ユーザは、ユーザ端末21を利用して、サービス上から権利を購入する(ステップS30)。なお、購入は、通常の決済態様で実現されてもよいし、スマートコントラクト等を介して実現されてもよい。なお、決済には、任意の通貨が利用されてよい。 In FIG. 3, first, the user uses the user terminal 21 to purchase the right from the service (step S30). In addition, the purchase may be realized in a normal payment mode, or may be realized via a smart contract or the like. Any currency may be used for settlement.

ステップS30の権利購入に応答して、情報処理サーバ100は、3Dオブジェクト(図3では、“オリジナル3D”と表記)をクラウドサーバ91から取得する(読み込む)(ステップS32、S34)。この際、情報処理サーバ100は、ユーザが閲覧できる態様で、取得した3Dオブジェクトを表示してよい(ステップS36)。図4には、3Dオブジェクトの一例として、パイロンを模した3Dオブジェクト(以下、単に「パイロン」とも称する)が図示されている。図4に示す例では、パイロンの表面上には何も描画されておらず(すなわち無地のキャンバスである)。しかしながら、変形例では、購入時のパイロンには、何らかのデザインや文字等がすでに描画されていてもよい。また、図4に示す例では、パイロンは、例えば白地であるが、他のカラーが付与されてもよいし、模様が付与されてもよい。また、図4に示す例では、パイロンは、平滑な表面を有するが、凹凸やテクスチャーが付与されてもよい。なお、パイロンは、購入画面等において、2D画像で表示されてもよいし、2D画像の組み合わせによりパイロンのアニメーション表示が可能とされてもよい。 In response to the right purchase in step S30, the information processing server 100 acquires (reads) the 3D object (denoted as "original 3D" in FIG. 3) from the cloud server 91 (steps S32, S34). At this time, the information processing server 100 may display the acquired 3D object in a manner that the user can browse (step S36). As an example of a 3D object, FIG. 4 illustrates a 3D object modeled after a pylon (hereinafter also simply referred to as “pylon”). In the example shown in FIG. 4, nothing is drawn on the surface of the pylon (ie, it is a blank canvas). However, in a modified example, the pylon at the time of purchase may already have some design, characters, or the like drawn thereon. Also, in the example shown in FIG. 4, the pylon is white, for example, but it may be given another color or pattern. Also, in the example shown in FIG. 4, the pylon has a smooth surface, but it may be uneven or textured. The pylon may be displayed as a 2D image on the purchase screen or the like, or an animation display of the pylon may be possible by combining 2D images.

ついで、ユーザは、ユーザ端末21を利用して、貼り付け対象の2D画像(図3は、“読込画像”と表記)を選択する(ステップS38)。図5には、ユーザ端末21としてスマホを利用した場合の選択用ユーザインタフェース(以下、「選択UI」と称する)の一例が示されている。図5の場合、選択UIは、ユーザが所有する2D画像データに対応付けられている複数の2D画像の表示G51~G54と、複数の2D画像の表示G51~G54にそれぞれ対応付けられる選択ボタンB51~B54とを含む。図5では、選択ボタンB51~B54は、対応する表示G51~G54自体であり、タップ等の操作が可能である。ただし、変形例では、複数の2D画像の表示G51~G54にそれぞれ対応付けられる別の位置に、選択ボタンB51~B54が設定されてもよい。また、選択UIは、2D画像の表示G51~G54以外の、2D画像の表示が閲覧できるようにスクロール等が可能とされてもよい。なお、2D画像の表示G51~G54は、対応する2D画像データを識別可能な態様で表す表示であればよく、対応する2D画像データに基づいて生成されてもよいし、対応する2D画像データとは異なる画像データに基づいて生成されてもよい。なお、対応する2D画像データに基づいて生成される場合、2D画像データ自体は、対応するメタデータに基づいて取得されてよい。 Next, the user uses the user terminal 21 to select a 2D image to be pasted (denoted as "read image" in FIG. 3) (step S38). FIG. 5 shows an example of a selection user interface (hereinafter referred to as “selection UI”) when a smartphone is used as the user terminal 21 . In the case of FIG. 5, the selection UI includes a plurality of 2D image displays G51 to G54 associated with 2D image data owned by the user, and a selection button B51 associated with each of the plurality of 2D image displays G51 to G54. to B54. In FIG. 5, the selection buttons B51 to B54 are the corresponding displays G51 to G54 themselves, and operations such as tapping are possible. However, in a modification, the selection buttons B51 to B54 may be set at different positions associated with the displays G51 to G54 of the plurality of 2D images, respectively. Further, the selection UI may be made scrollable so that 2D image displays other than the 2D image displays G51 to G54 can be browsed. The 2D image displays G51 to G54 may be displays that represent the corresponding 2D image data in an identifiable manner, and may be generated based on the corresponding 2D image data, or may be generated based on the corresponding 2D image data. may be generated based on different image data. Note that when generated based on corresponding 2D image data, the 2D image data itself may be obtained based on corresponding metadata.

ここで、ユーザにより選択可能な貼り付け対象の2D画像は、好ましくは、NFTとして発行された作品に関連し、ユーザが所有者である。この場合、貼り付け対象の2D画像は、複製が実質的に不能であり、代替不可能性(唯一無二さ)が高い画像である。このように、選択UIに表示される複数の2D画像の表示は、ユーザが所有するNFTに係る2D画像に係る表示であってよい。 Here, the user-selectable 2D image to be pasted is preferably associated with a work published as an NFT and owned by the user. In this case, the 2D image to be pasted is an image that is substantially impossible to duplicate and highly non-substitutable (unique). In this way, the display of the plurality of 2D images displayed on the selection UI may be the display of the 2D image associated with the NFT owned by the user.

ステップS38のユーザ選択に応答して、情報処理サーバ100は、選択された貼り付け対象の2D画像を読み込む(図3は、“2D読込”と表記)(ステップS40)。2D画像は、対応するメタデータに基づいて取得されてもよい。例えば、NFTに係る2D画像は、P2P分散型ファイルシステム(例えばIPFS(InterPlanetary File System))又はその類から取得されてよい。そして、情報処理サーバ100は、読み込んだ2D画像を3次元に変換し、対応する3D画像を生成する(ステップS42)。ついで、オリジナル3D上の3D画像の貼り付け場所を決定する(ステップS44)。なお、貼り付け場所は、ユーザにより指定されてよい。また、3Dオブジェクトにおける2D画像の貼り付け場所や向き等は、後述するように各種の調整が可能とされてもよい。 In response to the user's selection in step S38, the information processing server 100 reads the selected 2D image to be pasted (denoted as "2D read" in FIG. 3) (step S40). A 2D image may be obtained based on the corresponding metadata. For example, the 2D image associated with the NFT may be obtained from a P2P distributed file system (eg IPFS (InterPlanetary File System)) or the like. The information processing server 100 then converts the read 2D image into a three-dimensional image and generates a corresponding 3D image (step S42). Next, a place to paste the 3D image on the original 3D is determined (step S44). Note that the pasting location may be specified by the user. In addition, various adjustments may be made as to the pasting location and orientation of the 2D image in the 3D object, as will be described later.

図6には、貼り付け場所を指定する際のユーザインタフェース(以下、「貼り付けUI」と称する)の一例が示されている。図6に示す例では、オリジナル3D上の3D画像の貼り付け場所が、貼り付け対象の2D画像とともに、視覚的に示されている。ユーザは、貼り付け位置以外にも、向きやサイズ、レイヤー等が変更可能であってよい。また、ユーザは、通常的なCAD(Computer Aided Design)等の3Dビューワーと同じように、回転やパンなどビューを自由に変えることが可能であってよい。レイヤーは、2つ以上の2D画像を重ねて貼り付ける場合のレイヤーに関する。なお、図6に示す例では、貼り付けUIは、比較的大きい画面用(例えばPC画面用)であり、選択UIを含んでいる。この場合、ユーザは、選択UI内の所望の2D画像をドラッグして右側の貼り付けUI内に移動させることで、貼り付け対象の2D画像として選択可能であってもよい。また、ユーザは、貼り付けUI内で2D画像の位置や向き等を適宜変更可能とされてよい。 FIG. 6 shows an example of a user interface (hereinafter referred to as "paste UI") for specifying a paste location. In the example shown in FIG. 6, the paste location of the 3D image on the original 3D is visually indicated along with the 2D image to be pasted. The user may be able to change the orientation, size, layer, etc., in addition to the pasting position. Also, the user may be able to freely change the view, such as rotation and panning, in the same way as with a normal 3D viewer such as CAD (Computer Aided Design). A layer relates to a layer when pasting two or more 2D images on top of each other. Note that in the example shown in FIG. 6, the paste UI is for a relatively large screen (for example, for a PC screen) and includes a selection UI. In this case, the user may be able to select a 2D image to be pasted by dragging a desired 2D image in the selection UI and moving it into the paste UI on the right. Also, the user may be able to appropriately change the position, orientation, etc. of the 2D image within the paste UI.

なお、図6に示す例では、貼り付け対象の2D画像は、矩形の外形を有するが、図7に示すように、シールをイメージできるような態様で、画像の外形に沿った輪郭線L1を有してもよい。 In the example shown in FIG. 6, the 2D image to be pasted has a rectangular contour, but as shown in FIG. may have.

ついで、情報処理サーバ100は、オリジナル3Dの表面(貼り付け場所の表面)に合わせて画像3Dを湾曲させつつ、オリジナル3Dの表面上に画像3Dを重ねる(重畳する)(ステップS46)。この場合、情報処理サーバ100は、オリジナル3Dの表面上に画像3Dに係る2D画像が貼り付けられた態様で、新たな3Dオブジェクトを生成及び出力する(ステップS48)。以下、このようにしてオリジナル3Dの表面上に、その表面に沿って2D画像を結合(描画)することを、2D画像を“貼り付ける”とも称する。本実施例では、被貼り付け側の3Dオブジェクトは、表面が湾曲しているパイロンであるが、被貼り付け側の3Dオブジェクトは、必ずしも表面全体が湾曲している必要はなく、表面の一部又は全部が平面であってもよい。また、被貼り付け側の3Dオブジェクトは、複数の平面からなる多面体構造を有してもよい。 Next, the information processing server 100 bends the image 3D according to the surface of the original 3D (the surface of the pasting place) and superimposes the image 3D on the surface of the original 3D (step S46). In this case, the information processing server 100 generates and outputs a new 3D object with a 2D image related to the 3D image pasted on the surface of the original 3D (step S48). Combining (drawing) a 2D image along the surface of the original 3D in this way is hereinafter also referred to as "pasting" the 2D image. In this embodiment, the 3D object on the pasting side is a pylon whose surface is curved. Or all may be a plane. Also, the 3D object on the pasting side may have a polyhedral structure composed of a plurality of planes.

そして、情報処理サーバ100は、このようにして得られた結合結果(図3は、“3D結合”と表記)をクラウドサーバ91に保存させる(ステップS50、ステップS52)。なお、クラウドサーバ91に加えて又は代えて、P2P分散型ファイルシステム(例えばIPFS)又はその類に、新たな3Dオブジェクトに係る2D画像等が保存されてもよい。 Then, the information processing server 100 causes the cloud server 91 to store the combination result obtained in this way (denoted as "3D combination" in FIG. 3) (steps S50 and S52). In addition to or instead of the cloud server 91, a P2P distributed file system (eg, IPFS) or the like may store 2D images of new 3D objects.

図8には、3Dオブジェクト(本実施例ではパイロンの形態)の表面上に複数の2D画像G81~G84が貼り付けられた状態が模式的に示されている。図8には、4つの2D画像G81~G84が貼り付けられた状態が示されているが、貼り付け可能な2D画像の数は、任意であり、無制限であってもよいし、貼り付け可能な数が所定条件に応じて設定されてもよい。また、2D画像は、互いに重ねて貼り付けも可能とされてよく、この場合、上に貼り付けられた2D画像は、下の2D画像を隠すように描画されてよい。この際、ユーザは、上述したように、レイヤーを調整することで、各2D画像間のレイヤー(上下関係)を適宜変更可能とされてよい。 FIG. 8 schematically shows a state in which a plurality of 2D images G81 to G84 are pasted on the surface of a 3D object (in the form of a pylon in this embodiment). FIG. 8 shows a state in which four 2D images G81 to G84 are pasted, but the number of 2D images that can be pasted is arbitrary and may be unlimited. number may be set according to a predetermined condition. 2D images may also be allowed to be pasted on top of each other, in which case the 2D image pasted on top may be drawn to hide the 2D image below. At this time, the user may be able to appropriately change the layers (hierarchical relationship) between the 2D images by adjusting the layers as described above.

このようにして生成される3Dオブジェクトは、例えばメタバース空間のような3Dの3次元空間(仮想空間)に配置されてよい。図9には、メタバース空間の地面(オブジェクト)上に、一の2D画像が貼り付けられた状態のパイロンが配置されている。なお、メタバース空間におけるパイロンが配置可能な位置は、ユーザ自身の所有する土地(ランド)内であってもよいし、管理者から許可された位置であってもよい。 A 3D object generated in this way may be placed in a 3D three-dimensional space (virtual space), such as a metaverse space. In FIG. 9, a pylon with one 2D image pasted is placed on the ground (object) in the Metaverse space. It should be noted that the position in which the pylon can be placed in the Metaverse space may be within the land owned by the user, or may be a position permitted by the administrator.

このようして、本実施例によれば、メタデータに基づいて貼り付け対象の2D画像を読み込むことができ、読み込んだ2D画像を3Dオブジェクトに貼り付けることができる。この場合、貼り付け位置やサイズ、向き、複数の2D画像同士の重なり態様、一の3Dオブジェクトに貼り付ける2D画像の数や種類等、ユーザが任意に決定できる。これにより、オリジナルの3Dオブジェクトから得られる最終作品(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることができる。また、貼り付け対象の2D画像が、NFTに係る画像である場合は、代替不可能性(唯一無二さ)を更に高めることができる。 Thus, according to the present embodiment, a 2D image to be pasted can be read based on the metadata, and the read 2D image can be pasted to the 3D object. In this case, the user can arbitrarily determine the pasting position, size, orientation, overlapping manner of a plurality of 2D images, the number and types of 2D images to be pasted on one 3D object, and the like. As a result, the artistry and originality of the final work (3D object data) obtained from the original 3D object can be enhanced. In addition, when the 2D image to be pasted is an image related to NFT, it is possible to further increase the irreplaceability (uniqueness).

なお、上述した実施例では、パイロンが被貼り付け側の3Dオブジェクトであるが、被貼り付け側の3Dオブジェクトは、任意であり、ありとあらゆる3D物体を利用できる。また、被貼り付け側の3Dオブジェクトは、必ずしも固定物である必要はなく、可動物であってもよいし、可搬性を有する物体であってもよい。また、被貼り付け側の3Dオブジェクトは、必ずしも形状が変化しない物体である必要はなく、可逆的又は不可逆的な変形が可能な物体であってもよい。 In the above-described embodiment, the pylon is the 3D object on the pasting side, but the 3D object on the pasting side is arbitrary, and any and all 3D objects can be used. Also, the 3D object to be pasted is not necessarily a fixed object, and may be a movable object or an object having portability. Also, the 3D object on the pasting side does not necessarily have to be an object whose shape does not change, and may be an object capable of reversible or irreversible deformation.

例えば図10に示すように、被貼り付け側の3Dオブジェクトは、仮想空間内でアバターのようなキャラクタが身に着けるオブジェクト(例えば帽子に係るオブジェクトOB10)を含んでよい。この場合、ユーザは、自身のアバターが身に着けるオブジェクトを、所望の態様で変更でき、オリジナル性(希少性)や芸術性等を高めることができる。また、このようなアバターが身に着けるオブジェクトは、アバターの動き等に応じて、その形状が動的に変化しうるが、かかる形状の変化に追従して2D画像が動的に貼り付けられてもよい。 For example, as shown in FIG. 10, the 3D object on the pasting side may include an object worn by a character such as an avatar in the virtual space (for example, an object OB10 related to a hat). In this case, the user can change the object worn by the user's avatar in a desired manner, thereby enhancing originality (rarity), artistry, and the like. Objects worn by such avatars can change their shape dynamically according to the movement of the avatar, and 2D images are dynamically pasted to follow such changes in shape. good too.

また、被貼り付け側の3Dオブジェクトのサイズは、ユーザにより可変とされてもよいし、複数種類のサイズの3Dオブジェクトがあらかじめ用意されてもよい。また、被貼り付け側の3Dオブジェクトのサイズは、貼り付け対象の2D画像のサイズや貼り付け数に応じて変更可能とされてもよい。 Also, the size of the 3D object to be pasted may be variable by the user, or 3D objects of a plurality of sizes may be prepared in advance. Also, the size of the 3D object to be pasted may be changeable according to the size of the 2D image to be pasted and the number of pastings.

なお、図3に示す例では、ステップS42で、2D画像を3次元に変換し、対応する3D画像を生成してから、ステップS44で、3Dオブジェクトにおける貼り付け位置が指定されているが、これに限られない。例えば、3Dオブジェクトにおける貼り付け位置が指定されてから、対応する3D画像が生成されてもよいし、対応する3D画像を経由せずに、2D画像を3Dオブジェクトに貼り付けることとしてもよい。また、上述した特開2016-157429号公報に記載されるような技術を利用して、3Dオブジェクトの表面に2D画像を貼り付けてもよい。 Note that in the example shown in FIG. 3, the 2D image is converted to 3D in step S42 and the corresponding 3D image is generated, and then in step S44, the pasting position in the 3D object is specified. is not limited to For example, the corresponding 3D image may be generated after the pasting position in the 3D object is specified, or the 2D image may be pasted to the 3D object without going through the corresponding 3D image. Alternatively, a 2D image may be pasted on the surface of a 3D object using the technique described in JP-A-2016-157429.

次に、図11以降を参照して、情報処理システム1をさらに説明する。 Next, the information processing system 1 will be further described with reference to FIG. 11 and subsequent figures.

図11は、情報処理システム1の機能の一例を示す概略的なブロック図である。以下では、情報処理システム1の機能は、例えば、情報処理サーバ100により実現されるが、情報処理システム1の機能の一部又は全部は、ユーザ端末21、情報処理サーバ100、及びクラウドサーバ91のうちの、任意の1つ又は2つ以上の組み合わせにより実現されてもよい。 FIG. 11 is a schematic block diagram showing an example of functions of the information processing system 1. As shown in FIG. In the following description, the functions of the information processing system 1 are realized by, for example, the information processing server 100, but some or all of the functions of the information processing system 1 are implemented by the user terminal 21, the information processing server 100, and the cloud server 91. It may be realized by any one or a combination of two or more of them.

情報処理システム1は、図11に示すように、ユーザ入力取得部11、3次元データ取得部12と、画像データ取得部13と、結合画像データ生成部14と、データ管理部15と、ユーザ情報記憶部16と、結合画像記憶部17とを含む。 As shown in FIG. 11, the information processing system 1 includes a user input acquisition unit 11, a three-dimensional data acquisition unit 12, an image data acquisition unit 13, a combined image data generation unit 14, a data management unit 15, user information A storage unit 16 and a combined image storage unit 17 are included.

ユーザ入力取得部11は、上述した選択UIや貼り付けUI等のような各種UIを介して、ユーザ入力を取得する。なお、ユーザ入力は、タッチパネル等のような通常的なユーザインタフェースに加えて又は代えて、音声やジェスチャ(モーションキャプチャ)等を介して取得されてもよい。 The user input acquisition unit 11 acquires user input via various UIs such as the above-described selection UI and paste UI. Note that the user input may be obtained through voice, gesture (motion capture), etc., in addition to or instead of a normal user interface such as a touch panel.

3次元データ取得部12は、上述した3Dオブジェクト(例えばパイロンのような被貼り付け側の3Dオブジェクト)のデータを取得する。なお、3Dオブジェクトの保存場所は、情報処理サーバ100内であってもよいし、他のサーバであってもよい。また、3Dオブジェクトは、ユーザ等により新たに生成されることで取得されてもよい。 The three-dimensional data acquisition unit 12 acquires data of the above-described 3D object (for example, a 3D object on the pasting side such as a pylon). Note that the storage location of the 3D object may be inside the information processing server 100 or may be another server. Also, the 3D object may be acquired by being newly generated by a user or the like.

画像データ取得部13は、3Dオブジェクトに貼り付け可能な2D画像を取得する。例えば、画像データ取得部13は、上述したように、選択UIを介してユーザにより選択された2D画像を取得してもよい。あるいは、画像データ取得部13は、選択UIの生成時に、ユーザの所有する2D画像のすべて又は一部を取得してもよい。 The image data acquisition unit 13 acquires a 2D image that can be attached to a 3D object. For example, the image data acquisition unit 13 may acquire a 2D image selected by the user via the selection UI, as described above. Alternatively, the image data acquisition unit 13 may acquire all or part of the 2D image owned by the user when generating the selection UI.

なお、ユーザは、3Dオブジェクトに貼り付け可能な2D画像を任意のマーケットプレイスで取得(購入)してもよいし、自身でオリジナルに作成することで取得してもよいし、取得方法は任意である。例えば、図12に示すように、3Dオブジェクトに貼り付け可能な2D画像は、パッケージングされた形態でインターネット上のマーケットプレイス等にて販売されてもよい。また、3Dオブジェクトとセットで販売されてもよい。 Note that the user may obtain (purchase) a 2D image that can be pasted on a 3D object from any marketplace, or may obtain it by creating an original image by himself or herself, or any acquisition method may be used. be. For example, as shown in FIG. 12, a 2D image that can be attached to a 3D object may be sold in a packaged form on a marketplace or the like on the Internet. It may also be sold as a set with the 3D object.

結合画像データ生成部14は、上述したように2D画像が貼り付けられた3Dオブジェクト(以下、「結合画像データ」とも称する)を生成する。図13は、結合画像データの生成方法の一例のフローチャートである。なお、図13に示す生成方法は、図3に示したステップS40~ステップS48の処理の具体例として適用できる。 The combined image data generation unit 14 generates a 3D object (hereinafter also referred to as "combined image data") to which the 2D image is pasted as described above. FIG. 13 is a flow chart of an example of a method for generating combined image data. The generation method shown in FIG. 13 can be applied as a specific example of the processing of steps S40 to S48 shown in FIG.

図13に示す例では、結合画像データ生成部14は、2D画像に係る画像2Dファイルを読込み(ステップS131)、オリジナルの3Dオブジェクトの表面の貼り付け場所(図13では、「オリジナル3D曲面貼り付け場所」と表記)がユーザにより指定される(ステップS132)。結合画像データ生成部14は、貼り付け場所に係る表面のデータ量を測定(算出)する(ステップS133)とともに、画像2Dファイルのデータ量を測定(算出)する(ステップS134)。そして、結合画像データ生成部14は、オリジナルの3Dオブジェクトの表面(曲面)に係るデータ量から、画像2Dファイルのデータ量を補間する(ステップS135)。また、結合画像データ生成部14は、画像2Dに奥行きデータを追加する(ステップS136)ことで、画像2Dデータを画像3Dデータに変換する(ステップS137)。そして、結合画像データ生成部14は、オリジナルの3Dオブジェクトの表面データを、変換後の画像3Dデータで上書きする(ステップS138)ことで、新しい3Dデータ(すなわち結合画像データ)を生成し出力する(ステップS139)。 In the example shown in FIG. 13, the combined image data generation unit 14 reads an image 2D file related to a 2D image (step S131), and pastes the surface of the original 3D object (in FIG. 13, "original 3D curved surface paste place”) is designated by the user (step S132). The combined image data generation unit 14 measures (calculates) the data amount of the surface related to the pasting location (step S133), and measures (calculates) the data amount of the image 2D file (step S134). Then, the combined image data generation unit 14 interpolates the data amount of the image 2D file from the data amount related to the surface (curved surface) of the original 3D object (step S135). The combined image data generation unit 14 also adds depth data to the 2D image (step S136), thereby converting the 2D image data into 3D image data (step S137). Then, the combined image data generation unit 14 overwrites the surface data of the original 3D object with the converted image 3D data (step S138) to generate and output new 3D data (that is, combined image data) ( step S139).

なお、図13では、示されていないが、ユーザからの貼り付け場所(位置)の変更や向き、サイズの変更指示があった場合は、新たな貼り付け場所等の指示に基づいて、ステップS132からの処理が同様に実行されてよい。 Although not shown in FIG. 13, if the user instructs to change the pasting place (position) or to change the orientation or size, step S132 is executed based on the instruction of the new pasting place or the like. may be similarly performed.

このように結合画像データ生成部14は、3D画像技術(2Dから3Dへの変換、及び3Dオブジェクトの貼り付け)で画像補間を行い、2Dデータと3Dデータの差異をなくす機能を有する。 In this way, the combined image data generation unit 14 has a function of performing image interpolation using 3D image technology (conversion from 2D to 3D and pasting of 3D objects) to eliminate differences between 2D data and 3D data.

データ管理部15は、結合画像データ生成部14により結合画像データが生成された場合に、結合画像データの生成に利用された2D画像に対して、その旨(貼り付け済みであること)を表す所定情報を対応付ける。例えば、データ管理部15は、貼り付け済みを表す所定情報を表すフラグを、結合画像データの生成に利用された2D画像に対して対応付けてよい。 When the combined image data is generated by the combined image data generation unit 14, the data management unit 15 indicates to that effect (that it has been pasted) to the 2D image used to generate the combined image data. Predetermined information is associated. For example, the data management unit 15 may associate a flag indicating predetermined information indicating pasting with the 2D image used to generate the combined image data.

データ管理部15は、所定情報が対応付けられている2D画像に対しては、当該2D画像を利用した結合画像データ生成部14による新たな結合画像データの生成を禁止してもよい。この場合、ある一の2D画像が貼り付け可能な3Dオブジェクトは、1つだけになり、当該一の2D画像の希少性等にも起因して、生成可能な結合画像データ(3Dオブジェクトデータ)の芸術性やオリジナリティを高めることができる。 The data management unit 15 may prohibit generation of new combined image data by the combined image data generation unit 14 using the 2D image with respect to the 2D image associated with the predetermined information. In this case, the number of 3D objects to which one 2D image can be pasted is only one, and due to the rarity of the one 2D image, etc., the number of combined image data (3D object data) that can be generated is limited. You can enhance your artistry and originality.

本実施例において、3Dオブジェクトに貼り付けられた2D画像は、ユーザ入力に基づいて、引き剥がしが可能とされてもよい。データ管理部15は、3Dオブジェクト上に描画された2D画像が削除された場合(すなわち剥がされた場合)に、3Dオブジェクト上から削除された2D画像に対する所定情報の対応付け状態を解除してもよい。すなわち、3Dオブジェクト上から削除された2D画像は、再び、3Dオブジェクト上に貼り付け可能となる。これにより、ユーザによる貼り付け直しなどが可能となり、利便性が向上する。 In this embodiment, a 2D image attached to a 3D object may be peelable based on user input. When the 2D image drawn on the 3D object is deleted (that is, when the 2D image is peeled off), the data management unit 15 cancels the association state of the predetermined information with the 2D image deleted from the 3D object. good. That is, the 2D image deleted from the 3D object can be pasted onto the 3D object again. As a result, it is possible for the user to re-paste the image, thereby improving convenience.

ユーザ情報記憶部16は、各ユーザのユーザ情報を記憶する。ユーザ情報は、任意であるが、例えば図14に示すように、ユーザ名(又はユーザID)ごとに、コレクション、貼り付け状態、保存場所等の情報を含んでよい。この場合、コレクションは、対応するユーザが所有する2D画像を表す。貼り付け状態は、対応する2D画像の状態を表し、上述した所定情報(結合画像データの生成に利用されていることを表す情報)に対応する“Pasted”状態や、それ以外の“Not Pasted”状態を表してよい。また、貼り付け状態の情報は、“Pasted”状態を表す場合、貼り付けられた3Dオブジェクトを特定する情報を含んでもよい。保存場所は、対応する2D画像の保存場所を表す情報であり、対応する2D画像のメタデータから生成されてよい。また、保存場所の情報は、対応するメタデータ自体であってもよい。なお、保存場所の情報は、対応するURL(Uniform Resource Locator)を含んでよい。 The user information storage unit 16 stores user information of each user. The user information is arbitrary, but may include information such as collection, paste status, storage location, etc. for each user name (or user ID), as shown in FIG. 14, for example. In this case, the collection represents the 2D images owned by the corresponding user. The pasted state represents the state of the corresponding 2D image, and may be a “Pasted” state corresponding to the above-described predetermined information (information indicating that it is used to generate combined image data), or another “Not Pasted” state. can represent the state. In addition, the pasted state information may include information specifying the pasted 3D object when representing the “Pasted” state. The storage location is information representing the storage location of the corresponding 2D image, and may be generated from the metadata of the corresponding 2D image. Alternatively, the storage location information may be the corresponding metadata itself. The storage location information may include a corresponding URL (Uniform Resource Locator).

このようなユーザ情報は、データ管理部15により適宜更新されてよい。例えば、データ管理部15は、ユーザが新たな2D画像を購入した場合、新たな2D画像をコレクションに追加し、それに対応する保存場所等の情報を追加してよい。なお、購入した2D画像は、貼り付け可能な状態(すなわち“Not Pasted”状態)であるが、貼り付け不能な状態“Pasted”状態で流通される場合もありうる。このような貼り付け状態は、マーケットプレイスで識別可能に表示されてもよく、また、その価格に反映されてもよい。 Such user information may be appropriately updated by the data management unit 15 . For example, when the user purchases a new 2D image, the data management unit 15 may add the new 2D image to the collection and add corresponding information such as a storage location. The purchased 2D image is in a pastable state (that is, “Not Pasted” state), but may be distributed in a “Pasted” state in which pasting is not possible. Such attachment status may be identifiably displayed in the marketplace and may be reflected in its price.

また、ユーザ情報は、ユーザ入力取得部11や画像データ取得部13により利用されてよい。例えば、ユーザ入力取得部11は、上述した選択UIを生成する際に、ユーザ情報のコレクションに基づいて、ユーザが所有する2D画像を特定してよい。また、この際、ユーザ入力取得部11は、ユーザ情報の貼り付け状態に基づいて、各2D画像が貼り付け可能か否かの情報を、選択UIに追加的に出力してもよい。例えば、貼り付け不能な2D画像は、“Pasted”といった文字が付与されてもよいし(図6参照)、対応する選択ボタン(図5の選択ボタンB51~B52参照)が非アクティブ化されてもよい。あるいは、ユーザ入力取得部11は、ユーザ情報の貼り付け状態に基づいて、貼り付け可能な2D画像に係る表示(図5の表示G51~G54参照)を出力してもよい。また、画像データ取得部13は、上述した選択UIを生成する際に、ユーザ情報のコレクションに基づいて、ユーザが所有する2D画像とともに保存場所を特定し、特定した2D画像を、対応する保存場所から取得してよい。 Also, the user information may be used by the user input acquisition unit 11 and the image data acquisition unit 13 . For example, the user input acquisition unit 11 may identify the 2D image owned by the user based on the collection of user information when generating the selection UI described above. Further, at this time, the user input acquisition unit 11 may additionally output information as to whether or not each 2D image can be pasted to the selection UI based on the pasting state of the user information. For example, a 2D image that cannot be pasted may be given a character such as “Pasted” (see FIG. 6), or even if the corresponding selection button (see selection buttons B51 to B52 in FIG. 5) is deactivated. good. Alternatively, the user input acquisition unit 11 may output displays (see displays G51 to G54 in FIG. 5) related to pastable 2D images based on the pasting state of the user information. Further, when generating the selection UI described above, the image data acquisition unit 13 identifies the storage location together with the 2D image owned by the user based on the user information collection, and stores the identified 2D image in the corresponding storage location. can be obtained from

結合画像記憶部17は、上述したように結合画像データ生成部14により生成される結合画像データが記憶される。なお、結合画像記憶部17の機能の一部又は全部は、上述したように他のシステム(例えばP2P分散型ファイルシステム)やサーバにより実現されてもよい。なお、結合画像データ生成部14により生成される結合画像データに対しては、NFT化されてもよい。また、この場合も、図12に示した形態のように、結合画像データは、パッケージングされた形態で販売等されてもよい。 The combined image storage unit 17 stores the combined image data generated by the combined image data generation unit 14 as described above. Some or all of the functions of the combined image storage unit 17 may be implemented by another system (for example, a P2P distributed file system) or server as described above. Note that the combined image data generated by the combined image data generation unit 14 may be converted to NFT. Also in this case, as in the form shown in FIG. 12, the combined image data may be sold in a packaged form.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes are possible within the scope described in the claims. It is also possible to combine all or more of the constituent elements of the above-described embodiments.

例えば、上述した実施例では、3Dオブジェクトに貼り付けられる2D画像は、静止画であるが、動画やアニメーションに適用されてもよい。 For example, in the above-described embodiment, the 2D image pasted on the 3D object is a still image, but it may be applied to a moving image or animation.

また、上述した実施例では、3Dオブジェクトに2D画像を貼り付けてから、当該3Dオブジェクトをメタバース空間等に配置可能としているが、メタバース空間にすでに配置されている3Dオブジェクトに対して、同様の態様で2D画像を貼り付け可能としてもよい。 Further, in the above-described embodiment, after a 2D image is attached to a 3D object, the 3D object can be placed in the metaverse space or the like. A 2D image may be pasted with .

1 情報処理システム
4 ネットワーク
11 ユーザ入力取得部
12 3次元データ取得部
13 画像データ取得部
14 結合画像データ生成部(画像データ生成部)
15 データ管理部
16 ユーザ情報記憶部
17 結合画像記憶部
21 ユーザ端末
24 表示部
91 クラウドサーバ
100 情報処理サーバ
101 制御部
102 主記憶部
103 補助記憶部
104 ドライブ装置
105 記録媒体
106 ネットワークI/F部
107 入力部
1 information processing system 4 network 11 user input acquisition unit 12 three-dimensional data acquisition unit 13 image data acquisition unit 14 combined image data generation unit (image data generation unit)
15 Data management unit 16 User information storage unit 17 Combined image storage unit 21 User terminal 24 Display unit 91 Cloud server 100 Information processing server 101 Control unit 102 Main storage unit 103 Auxiliary storage unit 104 Drive device 105 Recording medium 106 Network I/F unit 107 input unit

Claims (10)

3Dオブジェクトを取得する3Dオブジェクト取得部と、
対応するメタデータに基づいて2D画像データを取得する画像データ取得部と、
前記3Dオブジェクトに基づく物体の表面に沿うように前記2D画像データに基づく画像が描画された前記物体の画像データを生成する画像データ生成部と、
前記画像データ生成部により前記物体の画像データが生成された場合に、前記物体の画像データの生成に利用された前記2D画像データに対して、その旨を表す所定情報を対応付けるデータ管理部とを備え、
前記データ管理部は、前記所定情報が対応付けられている前記2D画像データを利用した前記画像データ生成部による新たな前記物体の画像データの生成を禁止する、情報処理装置。
a 3D object acquisition unit that acquires a 3D object;
an image data acquisition unit that acquires 2D image data based on corresponding metadata;
an image data generation unit that generates image data of the object in which an image based on the 2D image data is drawn along the surface of the object based on the 3D object;
a data management unit that, when the image data generating unit generates the image data of the object, associates the 2D image data used to generate the image data of the object with predetermined information indicating that fact; prepared,
The information processing device , wherein the data management unit prohibits the image data generation unit from generating new image data of the object using the 2D image data associated with the predetermined information .
前記2D画像データは、NFTとして発行された作品に関連する、請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein said 2D image data is associated with a work published as an NFT. ユーザ入力を取得するユーザ入力取得部を更に備え、
前記画像データ生成部は、前記ユーザ入力に基づいて、前記表面上に描画された前記画像を削除可能であり、
前記データ管理部は、前記表面上に描画された前記画像が削除された場合に、削除された前記画像に係る前記2D画像データに対する前記所定情報の対応付け状態を解除する、請求項に記載の情報処理装置。
further comprising a user input acquisition unit that acquires user input;
The image data generator is capable of deleting the image drawn on the surface based on the user input,
2. The data management unit according to claim 1 , wherein when the image drawn on the surface is deleted, the data management unit cancels the association state of the predetermined information with the 2D image data related to the deleted image. information processing equipment.
前記ユーザ入力取得部は、前記2D画像データに対応付けられている複数の2D画像の表示と、前記複数の2D画像の表示にそれぞれ対応付けられる選択ボタンとを含むユーザインタフェースを生成し、
前記ユーザ入力は、前記選択ボタンを介して取得される選択入力を含み、
前記画像データ生成部は、前記選択入力に対応した前記2D画像データを利用して前記物体の画像データを生成する、請求項に記載の情報処理装置。
The user input acquisition unit generates a user interface including display of a plurality of 2D images associated with the 2D image data and selection buttons respectively associated with the display of the plurality of 2D images,
the user input includes a selection input obtained via the selection button;
4. The information processing apparatus according to claim 3 , wherein said image data generator generates image data of said object using said 2D image data corresponding to said selection input.
前記ユーザ入力取得部は、前記所定情報が対応付けられている前記2D画像データに係る前記2D画像の表示と、前記所定情報が対応付けられていない前記2D画像データに係る前記2D画像の表示とを、識別可能な態様で表示する、請求項に記載の情報処理装置。 The user input acquisition unit displays the 2D image associated with the 2D image data associated with the predetermined information and the 2D image associated with the 2D image data not associated with the predetermined information. 5. The information processing apparatus according to claim 4 , which displays in an identifiable manner. 前記画像データ生成部により生成された前記画像データは、仮想空間内のオブジェクトの生成に利用可能である、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said image data generated by said image data generation unit can be used to generate an object in a virtual space. ユーザ入力を取得するユーザ入力取得部を更に備え、
前記画像データ生成部は、前記ユーザ入力に基づいて、前記表面上における前記画像の位置、向き及びサイズのうちの少なくともいずれか1つを変更可能である、請求項1に記載の情報処理装置。
further comprising a user input acquisition unit that acquires user input;
2. The information processing apparatus according to claim 1, wherein said image data generator can change at least one of a position, orientation and size of said image on said surface based on said user input.
前記画像データ生成部は、一の前記物体に対して、複数の前記画像が重なる態様で描画された前記物体の画像データを生成可能である、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said image data generation unit is capable of generating image data of said object in which a plurality of said images are drawn with respect to one said object. ユーザ入力を取得するユーザ入力取得部を更に備え、
前記画像データ生成部は、前記ユーザ入力に基づいて、複数の前記画像のうちの重なり合う画像間のレイヤーを変更可能である、請求項に記載の情報処理装置。
further comprising a user input acquisition unit that acquires user input;
9. The information processing apparatus according to claim 8 , wherein said image data generator is capable of changing layers between overlapping images among said plurality of images based on said user's input.
3Dオブジェクトを取得し、
対応するメタデータに基づいて2D画像データを取得し、
前記3Dオブジェクトに基づく物体の表面に沿うように前記2D画像データに基づく画像が描画された前記物体の画像データを生成し、
前記物体の画像データが生成された場合に、前記物体の画像データの生成に利用された前記2D画像データに対して、その旨を表す所定情報を対応付けるとともに、前記所定情報が対応付けられている前記2D画像データを利用した新たな前記物体の画像データの生成を禁止する処理を、コンピュータに実行させるプログラム。

get a 3D object,
obtaining 2D image data based on corresponding metadata;
generating image data of the object in which an image based on the 2D image data is drawn along the surface of the object based on the 3D object;
When the image data of the object is generated, the 2D image data used to generate the image data of the object is associated with predetermined information indicating that fact, and the predetermined information is associated with the 2D image data. A program that causes a computer to execute processing for prohibiting generation of new image data of the object using the 2D image data .

JP2022130143A 2022-08-17 2022-08-17 Information processing device and program Active JP7190785B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022130143A JP7190785B1 (en) 2022-08-17 2022-08-17 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022130143A JP7190785B1 (en) 2022-08-17 2022-08-17 Information processing device and program

Publications (2)

Publication Number Publication Date
JP7190785B1 true JP7190785B1 (en) 2022-12-16
JP2024027381A JP2024027381A (en) 2024-03-01

Family

ID=84488931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022130143A Active JP7190785B1 (en) 2022-08-17 2022-08-17 Information processing device and program

Country Status (1)

Country Link
JP (1) JP7190785B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325615A (en) * 2000-05-18 2001-11-22 Sony Corp Device and method for processing three-dimensional model and program providing medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325615A (en) * 2000-05-18 2001-11-22 Sony Corp Device and method for processing three-dimensional model and program providing medium

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"NFTコンテンツ制作者向けにオリジナルグッズ作成・販売機能提供開始", [ONLINE], JPN7022004873, 23 May 2022 (2022-05-23), ISSN: 0004899276 *
"NFTコンテンツ制作者向けにオリジナルグッズ作成・販売機能提供開始", [online],2022年05月23日,[令和4年10月7日検索], インターネット<URL: https://suzuri.jp/surisurikun/journals/2022-05-20>
BENJAMIN, 「BLENDER 2.7 3DCG スーパーテクニック」, vol. 初版, JPN6022043534, 2014, pages 136 - 139, ISSN: 0004899277 *
Benjamin,「Blender 2.7 3DCG スーパーテクニック」,初版,株式会社ソーテック社,2014年,p.136-139

Also Published As

Publication number Publication date
JP2024027381A (en) 2024-03-01

Similar Documents

Publication Publication Date Title
US10754515B2 (en) Systems and methods for 3D scripting language for manipulation of existing 3D model data
US7661071B2 (en) Creation of three-dimensional user interface
Mullen Mastering blender
US10839615B2 (en) Systems and methods for generating and intelligently distributing forms of extended reality content
US11348315B2 (en) Generating and presenting a 3D virtual shopping environment
CN106575160A (en) Method and apparatus for providing interface recognizing movement in accordance with user&#39;s view
US20170213394A1 (en) Environmentally mapped virtualization mechanism
US10740981B2 (en) Digital stages for presenting digital three-dimensional models
CN108885793A (en) Ink in electronic document
JP6598984B2 (en) Object selection system and object selection method
US20230325068A1 (en) Technologies for virtually trying-on items
KR101523328B1 (en) Method of providing pose-library for three-dimensional animation character, apparatus performing the same and storage media storing the same
US11034092B2 (en) 3D-printed object with dynamic augmented-reality textures
US9639924B2 (en) Adding objects to digital photographs
JP7190785B1 (en) Information processing device and program
Yan et al. 3d simulation of interior house design in vr using vr3id method
CN114299203A (en) Processing method and device of virtual model
US20190311424A1 (en) Product visualization system and method for using two-dimensional images to interactively display photorealistic representations of three-dimensional objects based on smart tagging
KR102541262B1 (en) METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content
US11694376B2 (en) Intuitive 3D transformations for 2D graphics
US9633476B1 (en) Method and apparatus for using augmented reality for business graphics
JP2004199130A (en) Information visualizing method, device, and program
Xu et al. Research on the Digital Promotion and Development of the Achang Forging Skills in Yunnan
Elordi et al. Virtual reality interfaces applied to web-based 3D E-commerce
Khan et al. A 3D Classical Object Viewer for Device Compatible Display

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220926

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R150 Certificate of patent or registration of utility model

Ref document number: 7190785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350