JP7390767B1 - How to output the blueprint of a block object - Google Patents

How to output the blueprint of a block object Download PDF

Info

Publication number
JP7390767B1
JP7390767B1 JP2023131809A JP2023131809A JP7390767B1 JP 7390767 B1 JP7390767 B1 JP 7390767B1 JP 2023131809 A JP2023131809 A JP 2023131809A JP 2023131809 A JP2023131809 A JP 2023131809A JP 7390767 B1 JP7390767 B1 JP 7390767B1
Authority
JP
Japan
Prior art keywords
block
object model
blueprint
information
server terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023131809A
Other languages
Japanese (ja)
Inventor
彰悟 平川
Original Assignee
株式会社G-ant
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社G-ant filed Critical 株式会社G-ant
Priority to JP2023131809A priority Critical patent/JP7390767B1/en
Application granted granted Critical
Publication of JP7390767B1 publication Critical patent/JP7390767B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することを目的とする。【解決手段】ユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、前記サーバ端末の処理部は、オブジェクトモデルの画像データを取得し、前記画像データを解析し、前記解析結果に基づいて、前記オブジェクトモデルのポージングを決定し、前記サーバ端末の記憶部に格納されたオブジェクトモデルのポージングに対応するブロックオブジェクトの設計図を決定し、前記設計図を出力する。【選択図】図6An object of the present invention is to provide a method that allows a user to easily assemble block objects using block parts. A method for outputting a blueprint of a block object composed of a plurality of types of assembleable block parts, executed by a processing unit of a server terminal connected to a user terminal via a network, comprising: The processing unit of the server terminal acquires image data of the object model, analyzes the image data, determines the pose of the object model based on the analysis result, and stores the object model in the storage unit of the server terminal. A blueprint of a block object corresponding to the pose of the model is determined, and the blueprint is output. [Selection diagram] Figure 6

Description

本発明は、ブロックオブジェクトの設計図を出力する方法に関する。 The present invention relates to a method for outputting a blueprint of a block object.

ユーザが、レゴブリックのようなブロックパーツを使って動物、建物、乗り物等のブロックオブジェクトモデルを組み立てる玩具が普及している。 2. Description of the Related Art Toys that allow users to assemble block object models such as animals, buildings, and vehicles using block parts such as Lego bricks have become popular.

例えば、特許文献1において、ブロックオブジェクトを構成するブロックパーツの設計を効率化させる方法が開示されている。 For example, Patent Document 1 discloses a method for streamlining the design of block parts that constitute a block object.

特許5665872号Patent No. 5665872

しかしながら、上記特許文献1に開示されている技術によって、ブロックパーツの設計の効率化及び可視化を実現することは可能なものの、ユーザ視点に立って、ブロックオブジェクトを組み立てるイメージを可視化する方法を実現する方法は開示されていない。 However, although it is possible to realize the efficiency and visualization of the design of block parts using the technology disclosed in Patent Document 1, it is not possible to realize a method for visualizing an image of assembling block objects from the user's perspective. The method was not disclosed.

そこで、本発明は、ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a method that allows a user to easily assemble block objects using block parts.

本発明の一態様における、ユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、前記サーバ端末の処理部は、オブジェクトモデルの画像データを取得し、前記画像データを解析し、前記解析結果に基づいて、前記オブジェクトモデルのポージングを決定し、前記サーバ端末の記憶部に格納されたオブジェクトモデルのポージングに対応するブロックオブジェクトの設計図を決定し、前記設計図を出力する。 In one aspect of the present invention, a method for outputting a blueprint of a block object composed of multiple types of block parts that can be assembled is executed by a processing unit of a server terminal connected to a user terminal via a network. The processing unit of the server terminal acquires image data of the object model, analyzes the image data, determines the pose of the object model based on the analysis result, and stores the image data in the storage unit of the server terminal. A blueprint of a block object corresponding to the pose of the stored object model is determined, and the blueprint is output.

本発明によれば、ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することができる。 According to the present invention, it is possible to provide a method that allows a user to easily assemble block objects using block parts.

本発明の第一実施形態に係る、ブロックオブジェクトを推奨する方法を提供するシステムを示すブロック構成図である。FIG. 1 is a block configuration diagram showing a system that provides a method for recommending block objects according to a first embodiment of the present invention. 図1のサーバ端末100を示す機能ブロック構成図である。2 is a functional block configuration diagram showing the server terminal 100 of FIG. 1. FIG. 図1のユーザ端末200を示す機能ブロック構成図である。2 is a functional block configuration diagram showing the user terminal 200 of FIG. 1. FIG. サーバ100に格納されるオブジェクトモデル情報の一例を示す図である。3 is a diagram showing an example of object model information stored in the server 100. FIG. サーバ100に格納されるブロックパーツ情報の一例を示す図である。3 is a diagram showing an example of block parts information stored in the server 100. FIG. 本発明の第一実施形態に係る、ブロックオブジェクトの設計図を出力する方法の詳細を示すフローチャートの一例である。It is an example of the flowchart which shows the detail of the method of outputting the blueprint of a block object based on 1st embodiment of this invention. 本発明の第一実施形態に係る、ユーザ端末に表示される、オブジェクトモデルの画像データ及びブロックオブジェクトの一例である。4 is an example of image data of an object model and a block object displayed on a user terminal according to the first embodiment of the present invention.

以下、本発明の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本発明の必須の構成要素であるとは限らない。 Embodiments of the present invention will be described below with reference to the drawings. Note that the embodiments described below do not unduly limit the content of the present invention described in the claims. Furthermore, not all of the components shown in the embodiments are essential components of the present invention.

<構成>
図1は、本発明の第一実施形態に係る、ブロックオブジェクトの設計図を出力する方法を提供するシステムを示すブロック構成図である。本システム1は、ユーザ端末200から取得された画像データに基づいて、オブジェクトモデルのポージングを決定し、ポージングに対応するブロックオブジェクトの設計図を決定のうえ、出力するサーバ端末100と、ユーザ端末200A、200Bとで構成される。以下、説明の便宜のため、ユーザ端末200A、200Bを総称して、ユーザ端末200として説明する。
<Configuration>
FIG. 1 is a block configuration diagram showing a system that provides a method for outputting a blueprint of a block object according to a first embodiment of the present invention. This system 1 includes a server terminal 100 that determines a pose of an object model based on image data acquired from a user terminal 200, determines and outputs a blueprint of a block object corresponding to the pose, and a user terminal 200A. , 200B. Hereinafter, for convenience of explanation, the user terminals 200A and 200B will be collectively referred to as the user terminal 200.

ここで、複数のブロックパーツで構成されるブロックオブジェクトの例として、動物、人、キャラクター、ロボット、乗り物及び建物等が挙げられるが、一つの例に限定されない。 Here, examples of block objects composed of a plurality of block parts include animals, people, characters, robots, vehicles, buildings, etc., but are not limited to one example.

サーバ端末100とユーザ端末200は各々、ネットワークNWを介して接続される。ネットワークNWは、インターネット、イントラネット、無線LAN(Local Area Network)やWAN(Wide Area Network)等により構成される。 Server terminal 100 and user terminal 200 are each connected via network NW. The network NW includes the Internet, an intranet, a wireless LAN (Local Area Network), a WAN (Wide Area Network), and the like.

サーバ端末100は、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。本実施形態においては、説明の便宜上サーバ端末として1台を例示しているが、これに限定されず、複数台であってもよい。 The server terminal 100 may be, for example, a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing. In this embodiment, one server terminal is illustrated for convenience of explanation, but the number is not limited to this, and a plurality of server terminals may be used.

ユーザ端末200は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置であるが、スマートフォンや携帯電話、PDA等により構成しても良い。 The user terminal 200 is, for example, an information processing device such as a personal computer or a tablet terminal, but may also be configured by a smartphone, a mobile phone, a PDA, or the like.

本実施形態では、システム1は、サーバ端末100及びユーザ端末200を有し、ユーザがユーザ端末200を利用して、サーバ端末100に対する操作を行う構成として説明するが、サーバ端末100がスタンドアローンで構成され、サーバ端末自身に、各ユーザが直接操作を行う機能を備えても良い。 In this embodiment, the system 1 will be described as having a server terminal 100 and a user terminal 200, and a user uses the user terminal 200 to operate the server terminal 100, but the server terminal 100 is standalone. The server terminal itself may have a function that each user can directly operate.

図2は、図1のサーバ端末100の機能ブロック構成図である。サーバ端末100は、通信部110と、記憶部120と、制御部130とを備える。 FIG. 2 is a functional block configuration diagram of the server terminal 100 in FIG. 1. The server terminal 100 includes a communication section 110, a storage section 120, and a control section 130.

通信部110は、ネットワークNWを介してユーザ端末200と通信を行うための通信インターフェースであり、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)等の通信規約により通信が行われる。 The communication unit 110 is a communication interface for communicating with the user terminal 200 via the network NW, and communication is performed according to a communication protocol such as TCP/IP (Transmission Control Protocol/Internet Protocol).

記憶部120は、各種制御処理や制御部130内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。また、記憶部120は、オブジェクトモデルに関連する情報等を格納する、オブジェクトモデル情報格納部121、及びオブジェクトモデルを基に生成されたブロックパーツ情報等を格納する、ブロックパーツ情報格納部122を有する。なお、各種データを格納したデータベース(図示せず)が記憶部120またはサーバ端末100外に構築されていてもよい。 The storage unit 120 stores programs, input data, etc. for executing various control processes and functions within the control unit 130, and is composed of RAM (Random Access Memory), ROM (Read Only Memory), etc. Ru. The storage unit 120 also includes an object model information storage unit 121 that stores information related to the object model, and a block parts information storage unit 122 that stores block parts information generated based on the object model. . Note that a database (not shown) storing various data may be constructed outside the storage unit 120 or the server terminal 100.

制御部130は、記憶部120に記憶されているプログラムを実行することにより、サーバ端末100の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。制御部130の機能として、ユーザ端末200から画像データ、所定の指示等の情報を受け付ける情報受付部131、オブジェクトモデルに関連する各種情報を参照し、処理する、オブジェクトモデル情報処理部132、ブロックパーツに関連する各種情報を参照し、処理するブロックパーツ情報処理部133、及び、ブロックオブジェクトに関連する設計図情報をユーザ端末に出力させるよう送信する処理を行う出力処理部134を有する。この情報受付部131、オブジェクトモデル情報処理部132、ブロックパーツ情報処理部133、及び出力処理部134は、記憶部120に記憶されているプログラムにより起動されてコンピュータ(電子計算機)であるサーバ端末100により実行される。 The control unit 130 controls the overall operation of the server terminal 100 by executing a program stored in the storage unit 120, and is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc. be done. The functions of the control unit 130 include an information reception unit 131 that receives information such as image data and predetermined instructions from the user terminal 200, an object model information processing unit 132 that refers to and processes various information related to the object model, and block parts. The block parts information processing unit 133 refers to and processes various information related to the block object, and the output processing unit 134 performs a process of transmitting design drawing information related to the block object to be outputted to the user terminal. The information reception unit 131, object model information processing unit 132, block parts information processing unit 133, and output processing unit 134 are activated by a program stored in the storage unit 120 and are connected to the server terminal 100, which is a computer (electronic computer). Executed by

情報受付部131は、サーバ端末100が提供し、ユーザ端末200において、ウェブブラウザまたはアプリケーションを介して表示される画面等のユーザインターフェースを介して、ユーザが、(テキストを入力したり、アイコン(ボタン)を押下する等して)所定の要求を行ったとき、ユーザ端末200から情報を、通信部110を介して、受け付ける。 The information reception unit 131 is provided by the server terminal 100 and allows the user to enter text (input text, click icons (buttons ) When a predetermined request is made (by pressing ), information is received from the user terminal 200 via the communication unit 110 .

オブジェクトモデル処理部132は、オブジェクトモデルに関連する情報をオブジェクトモデル情報格納部121に格納したり、格納されたオブジェクトモデル情報を参照する処理を行う。 The object model processing unit 132 stores information related to object models in the object model information storage unit 121 and performs processing to refer to stored object model information.

ブロックパーツ情報処理部133は、ブロックパーツに関連する情報をブロックパーツ情報格納部122に格納したり、格納されたブロックパーツ情報を参照する処理を行う。 The block parts information processing unit 133 stores information related to block parts in the block parts information storage unit 122, and performs processing to refer to the stored block parts information.

出力処理部134は、ユーザ端末200にブロックオブジェクトに関連する設計図情報等を表示させるため、ユーザ端末200に対し必要な情報を送信する処理を行う。この際、出力処理部134は、記憶部120に格納された画像及びテキストデータを素材として、所定のレイアウト規則に基づいて、各種画像及びテキストをユーザインターフェースの所定の領域に配置することで、ユーザ端末200のインターフェースに表示されるために必要な画面情報を生成することができる。この画面情報生成処理は、GPU(Graphics Processing Unit)によって実行することもできる。 The output processing unit 134 performs a process of transmitting necessary information to the user terminal 200 in order to display blueprint information related to the block object on the user terminal 200. At this time, the output processing unit 134 uses the image and text data stored in the storage unit 120 as materials and arranges various images and texts in a predetermined area of the user interface based on predetermined layout rules. Screen information necessary to be displayed on the interface of the terminal 200 can be generated. This screen information generation process can also be executed by a GPU (Graphics Processing Unit).

図3は、図1のユーザ端末200を示す機能ブロック構成図である。ユーザ端末200は、通信部210と、表示操作部220と、記憶部230と、制御部240とを備える。 FIG. 3 is a functional block configuration diagram showing the user terminal 200 of FIG. 1. The user terminal 200 includes a communication section 210, a display operation section 220, a storage section 230, and a control section 240.

通信部210は、ネットワークNWを介してサーバ端末100と通信を行うための通信インターフェースであり、例えばTCP/IP等の通信規約により通信が行われる。また、通信部210は、近距離無線通信等を介してセンサ装置300と通信を行うための通信インターフェースを備えることもできる。 The communication unit 210 is a communication interface for communicating with the server terminal 100 via the network NW, and communication is performed according to a communication protocol such as TCP/IP. Further, the communication unit 210 can also include a communication interface for communicating with the sensor device 300 via short-range wireless communication or the like.

表示操作部220は、ユーザが指示を入力し、制御部240からの入力データに応じてテキスト、画像等を表示するために用いられるユーザインターフェースであり、ユーザ端末200がパーソナルコンピュータで構成されている場合はディスプレイとキーボードやマウスにより構成され、ユーザ端末200がスマートフォンまたはタブレット端末で構成されている場合はタッチパネル等から構成される。この表示操作部220は、記憶部230に記憶されている制御プログラムにより起動されてコンピュータ(電子計算機)であるユーザ端末200により実行される。 The display operation unit 220 is a user interface used by the user to input instructions and display text, images, etc. in accordance with input data from the control unit 240, and the user terminal 200 is configured with a personal computer. If the user terminal 200 is a smart phone or a tablet device, the user terminal 200 is composed of a touch panel or the like. This display operation section 220 is activated by a control program stored in the storage section 230 and executed by the user terminal 200 which is a computer (electronic computer).

記憶部230は、各種制御処理や制御部240内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAMやROM等から構成される。また、記憶部230は、サーバ端末100との通信内容を一時的に記憶している。 The storage unit 230 stores programs, input data, etc. for executing various control processes and functions within the control unit 240, and is composed of a RAM, a ROM, and the like. Furthermore, the storage unit 230 temporarily stores the contents of communication with the server terminal 100.

制御部240は、記憶部230に記憶されているプログラムを実行することにより、ユーザ端末200の全体の動作を制御するものであり、CPUやGPU等から構成される。 The control unit 240 controls the overall operation of the user terminal 200 by executing a program stored in the storage unit 230, and is composed of a CPU, a GPU, and the like.

なお、サーバ端末100に表示操作部の機能を備える構成としても良く、この場合、ユーザ端末200を備えない構成としても良い。また、その他、ユーザ端末200は、(図示しない)カメラを備えてもよく、この場合、カメラは、ブロックパーツに備えられるARマーカを撮像することで、ブロックパーツの(形状、色等によって決定される)種類等を識別し、拡張現実(AR)空間における座標を決定することができる。 Note that the configuration may be such that the server terminal 100 is provided with the function of a display operation section, or in this case, the configuration may be such that the user terminal 200 is not provided. In addition, the user terminal 200 may be equipped with a camera (not shown), and in this case, the camera captures an image of an AR marker provided on the block parts to determine the shape, color, etc. of the block parts. It is possible to identify the type, etc.) and determine the coordinates in augmented reality (AR) space.

図4は、サーバ100に格納されるオブジェクトモデル情報の一例を示す図である。 FIG. 4 is a diagram showing an example of object model information stored in the server 100.

図4に示すオブジェクトモデル情報1000は、サーバ端末100に関連するサービス運営者またはユーザ端末200に関連するユーザが生成したオブジェクトモデルに関連する情報等を格納する。図4において、説明の便宜上、一オブジェクトモデル(オブジェクトID「10001」で識別されるユーザ)の例を示すが、複数のオブジェクトモデルの情報を格納することができる。オブジェクトモデルは、複数のブロックパーツによって組み立て可能なブロックオブジェクトに対応するものであり、複数種類のブロックオブジェクトの各々に対応することを想定している。オブジェクトモデルに関連する各種データとして、オブジェクトモデルの3Dモデルデータ、オブジェクトモデルの断面データ、また、オブジェクトモデルを組み立てるために必要な、一または複数種のブロックパーツ及び個数に関連するデータ、オブジェクトモデルの各部位に対応するブロックパーツに関連する設計図情報、断面の層(レイヤー)毎に配置されるブロックパーツに関連する設計図情報等の情報を含むことができる。ここで、3Dモデルデータは、オブジェクトモデルのポリゴンデータ、オブジェクトモデルのボクセルデータ、また、2Dモデルデータを所定の処理により3Dモデルに変換されたものとして格納することもできる。また、設計図情報は、オブジェクトモデルの複数のポージングパターンの各々に対応するブロックオブジェクトの設計図として、予め格納しておくことができる。また、ポージングパターンに限らず、オブジェクトモデルの複数の髪型パターン、表情パターン、服装パターン等、オブジェクトモデルの外観や容姿に関わるパターンを格納しておくこともできる。ここで、オブジェクトモデルがクリエイターによって考案され、投稿(登録)された場合においては、オブジェクトモデル毎に、クリエイターを識別する、クリエイターID等の識別情報を対応づけて記録しておくこともできる。例えば、クリエイターは、自身が考案したオブジェクト(動物、キャラクタ等所望のもの)について、ポージングパターンを含む、複数の外観/容姿に関わるパターン毎に、また、各々のポージングパターンについて複数の色の組合せパターンにて、ボクセルデータ形式または他の任意のデータ形式で登録することもできるし、サービス運営者が、複数のクリエイターに対してテーマ(例えば、自分のペット、特定のキャラクタ等)を与え、各々のクリエイターから、オブジェクトの登録を受け付けることもできる。サーバ端末100は、クリエイターから受け付けたデータを、ボクセルデータ化し、ボクセルデータに基づいて、設計図情報を生成することができる。 Object model information 1000 shown in FIG. 4 stores information related to an object model generated by a service operator associated with server terminal 100 or a user associated with user terminal 200. In FIG. 4, for convenience of explanation, an example of one object model (a user identified by object ID "10001") is shown, but information on a plurality of object models can be stored. The object model corresponds to a block object that can be assembled using a plurality of block parts, and is assumed to correspond to each of a plurality of types of block objects. Various data related to the object model include 3D model data of the object model, cross-sectional data of the object model, data related to one or more types of block parts and their number necessary for assembling the object model, and data related to the number and type of block parts needed to assemble the object model. Information such as blueprint information related to block parts corresponding to each part and blueprint information related to block parts arranged for each layer of the cross section can be included. Here, the 3D model data can also be stored as polygon data of an object model, voxel data of an object model, or 2D model data converted into a 3D model by predetermined processing. Further, the blueprint information can be stored in advance as a blueprint of a block object corresponding to each of a plurality of posing patterns of the object model. In addition to posing patterns, it is also possible to store patterns related to the appearance and appearance of the object model, such as a plurality of hairstyle patterns, facial expression patterns, and clothing patterns of the object model. Here, if an object model is devised and posted (registered) by a creator, identification information such as a creator ID that identifies the creator may be associated and recorded for each object model. For example, for an object (an animal, character, etc.) that the creator devises, the creator may create multiple patterns related to appearance/appearance, including posing patterns, and multiple color combination patterns for each posing pattern. You can also register in voxel data format or any other data format, or the service operator can give multiple creators a theme (for example, their own pet, a specific character, etc.) and each It is also possible to accept object registrations from creators. The server terminal 100 can convert data received from a creator into voxel data, and generate blueprint information based on the voxel data.

図5は、サーバ100に格納されるブロックパーツ情報の一例を示す図である。 FIG. 5 is a diagram showing an example of block parts information stored in the server 100.

図5に示すブロックパーツ情報2000は、ブロックパーツの形状、サイズ、色及び重さに関連する情報等を格納する。図5において、説明の便宜上、一ブロックパーツ(ID「20001」で識別されるブロックパーツ)の例を示すが、複数のブロックパーツに関連する情報を格納することができる。ブロックパーツに関連する各種データとして、例えば、ブロックオブジェクトを組み立てる部品に相当するブロックパーツに関連する(ブロックパーツの形状、サイズ、色、各々のブロックパーツの個数等からなる)データを含むことができる。ここで、複数種のブロックパーツの各々は固有の色と関連づけられることができるが、これに限らない。 Block parts information 2000 shown in FIG. 5 stores information related to the shape, size, color, weight, etc. of block parts. In FIG. 5, for convenience of explanation, an example of one block part (block part identified by ID "20001") is shown, but information related to a plurality of block parts can be stored. Various data related to block parts may include, for example, data related to block parts corresponding to parts for assembling a block object (consisting of shape, size, color, number of each block part, etc.) . Here, each of the plurality of types of block parts can be associated with a unique color, but the invention is not limited thereto.

図6は、本発明の第一実施形態に係る、ブロックオブジェクトの設計図の出力方法を示すフローチャートの一例である。 FIG. 6 is an example of a flowchart illustrating a method for outputting a blueprint of a block object according to the first embodiment of the present invention.

事前の処理として、ユーザは、ユーザ端末200のウェブブラウザまたは(アプリケーションをインストールする場合は)アプリケーション等を利用してサーバ端末100にアクセスする。ウェブサイトまたはアプリケーション等を介してユーザインターフェース上に所定の画面が表示される。ユーザは、ブロックオブジェクトとして組み立てたい、オブジェクトモデルの画像データを、ユーザ端末200からサーバ端末100に送信(アップロード)することができる。ここで、ユーザは、ユーザ端末200において、オブジェクトモデル(例えば、人)のアニメーションを視聴し、人が動いているアニメーション画像の中から、一時停止ボタンを押すことやスクリーンショットを撮影する等の所定の操作を行うことで、その人のポージングを決定し、ブロックオブジェクトとして組み立てたいオブジェクトモデルのポージングとして選択を行い、このオブジェクトモデルのポージングを表現した画像データ(例えば、ボクセルデータ、または、二次元データから変換されたボクセルデータ)が、ユーザ端末200からサーバ端末100に送信される。 As a preliminary process, the user accesses the server terminal 100 using the web browser of the user terminal 200 or an application (if installing an application). A predetermined screen is displayed on a user interface via a website, application, or the like. The user can transmit (upload) image data of an object model that the user wants to assemble as a block object from the user terminal 200 to the server terminal 100. Here, the user views an animation of an object model (for example, a person) on the user terminal 200, and performs predetermined actions such as pressing a pause button or taking a screenshot from the animation image of the person moving. By performing this operation, determine the pose of the person, select the pose of the object model that you want to assemble as a block object, and create image data (e.g., voxel data or two-dimensional data) that represents the pose of this object model. voxel data converted from ) is transmitted from the user terminal 200 to the server terminal 100.

そして、ステップS101の処理として、サーバ端末100の制御部130の情報受付部131は、ユーザ端末200から、ネットワーク及び通信部110を介して、ユーザがこれから組み立てたい、とする、オブジェクトモデルのポージングを表現した画像データを受信する。本例においては、ユーザは、図7(a)に示すような、画像データとして表現される、あるポージングをするクマのブロックオブジェクトを組み立てたい、と考え、ユーザ端末200上で表示されるユーザインターフェース画面において、クマのアニメーション画像のうち、特定のポージングシーンの画像データを選択し、送信操作を行うと、サーバ端末100は、クマの画像データを受信する。ここで、画像データは、ポリゴンデータ等任意の形式のデータとすることができるが、例えば、ボクセルデータであってもよいし、他のデータ形式からボクセルデータに変換されたデータであってもよく、本処理の後にボクセルデータに変換することもできる。 Then, as processing in step S101, the information receiving unit 131 of the control unit 130 of the server terminal 100 receives the pose of the object model that the user wants to assemble from the user terminal 200 via the network and communication unit 110. Receive the expressed image data. In this example, the user wants to assemble a block object of a bear in a certain pose, expressed as image data as shown in FIG. 7(a), and the user interface displayed on the user terminal 200 When image data of a specific posing scene is selected from among the bear animation images on the screen and a transmission operation is performed, the server terminal 100 receives the bear image data. Here, the image data may be data in any format such as polygon data, but may also be voxel data, or data converted to voxel data from another data format. , it is also possible to convert to voxel data after this processing.

続いて、ステップS102の処理として、サーバ端末100の制御部130のオブジェクトモデル情報処理部132は、受信されたオブジェクトモデルの画像データを解析する処理を開始する。ポリゴンデータ、ボクセルデータ等の画像データを解析する処理は既知の方法で実現可能であるが、本実施形態においては、特に、画像データに含まれるオブジェクトの姿勢及びポージングを、オブジェクトの骨格を判定することで特定することを特徴とする。 Subsequently, as processing in step S102, the object model information processing unit 132 of the control unit 130 of the server terminal 100 starts processing to analyze the received image data of the object model. Although the process of analyzing image data such as polygon data and voxel data can be realized using known methods, in this embodiment, in particular, the posture and pose of an object included in the image data is determined by determining the skeleton of the object. It is characterized by specifying by

続いて、ステップS103の処理として、サーバ端末100の制御部130のオブジェクトモデル情報処理部132は、記憶部120のオブジェクトモデル情報格納部121に格納された、オブジェクトモデルの3Dモデルデータを参照する。オブジェクトモデル情報処理部132は、オブジェクトモデルの画像データに含まれるオブジェクトモデルの姿勢及びポージングを解析し、解析結果として取得された姿勢及びポージングに基づいて判定されるオブジェクトのポージングに関する情報と、上記オブジェクトモデルの3Dモデルデータとを比較する。ここで、3Dモデルデータとして、複数のブロックパーツで構成される、所定のポージングを行うブロックオブジェクトに対応する3Dモデルデータ(特定のオブジェクトのボクセルデータ)が、複数種類格納される。特定のオブジェクトとして、様々な種類の動物(本例のような、クマ等)、様々な特徴を有するヒト(男性、女性、大人、子供)、または仮想的なオブジェクト(キャラクター、ロボット等)等が含まれ得る。 Subsequently, as processing in step S103, the object model information processing section 132 of the control section 130 of the server terminal 100 refers to the 3D model data of the object model stored in the object model information storage section 121 of the storage section 120. The object model information processing unit 132 analyzes the posture and pose of the object model included in the image data of the object model, and provides information regarding the pose of the object determined based on the posture and pose obtained as the analysis result, and Compare the model with 3D model data. Here, as the 3D model data, a plurality of types of 3D model data (voxel data of a specific object) corresponding to a block object configured with a plurality of block parts and performing a predetermined pose are stored. Specific objects include various types of animals (bears, etc. in this example), humans (men, women, adults, children) with various characteristics, or virtual objects (characters, robots, etc.). may be included.

続いて、ステップS104の処理として、サーバ端末100の制御部130のオブジェクトモデル情報処理部132は、二次元データの画像解析に基づいて判定されるオブジェクトと、3Dモデルデータとして格納されるオブジェクトとを比較し、所定のポージングを行うオブジェクトを、ブロックパーツによって組み立て可能なブロックオブジェクトに対応するオブジェクトモデル(3Dモデル)として決定する。例えば、格納された3Dモデルデータとして、クマのポージングを行うオブジェクトモデルのボクセルデータが存在する場合、画像データから判定されるオブジェクトのポージングと一致するため、オブジェクトモデル情報処理部132は、ブロックオブジェクトとして組み立てを行う対象としてのオブジェクトを、クマのポージングを行うブロックオブジェクトとして決定する。サーバ端末100の制御部130の出力処理部134は、ユーザ端末200より送信された、オブジェクトモデルの画像データに対して、決定したオブジェクトモデルの3Dモデルデータをユーザ端末200に対して送信し、表示させることができる。ここで、制御部130は、記憶部120の設計図データを参照し、ブロックオブジェクトの色の構成パターンを、ユーザ端末200に送信し、表示させることもでき、ユーザ端末200より、ブロックオブジェクトの色選択を受け付けることもできる。 Subsequently, as processing in step S104, the object model information processing unit 132 of the control unit 130 of the server terminal 100 compares the object determined based on the image analysis of the two-dimensional data and the object stored as 3D model data. The object to be compared and posed in a predetermined pose is determined as an object model (3D model) corresponding to a block object that can be assembled using block parts. For example, if there is voxel data of an object model posing a bear as stored 3D model data, the object model information processing unit 132 stores it as a block object because it matches the pose of the object determined from the image data. The object to be assembled is determined as a block object for posing a bear. The output processing unit 134 of the control unit 130 of the server terminal 100 transmits the determined 3D model data of the object model to the user terminal 200 in response to the image data of the object model transmitted from the user terminal 200, and displays it. can be done. Here, the control unit 130 can refer to the blueprint data in the storage unit 120 and transmit the color configuration pattern of the block object to the user terminal 200 for display. It is also possible to accept selections.

続いて、ステップS105の処理として、オブジェクトモデル情報処理部132は、上記決定したオブジェクトモデル(ブロックオブジェクト)の組み立て方法を提示する設計図データを、記憶部120のオブジェクトモデル情報格納部121を参照し、ユーザ端末200に対して送信し、例えば、図7(b)に示すような形態で表示させることができる。上述の通り、記憶部120には、所定のオブジェクトモデルについて、複数のポージングパターンに対応するオブジェクトモデル及び設計図情報を格納しており、予め格納された設計図情報の中から、判定されたオブジェクトモデルのポージングに対応する、ブロックオブジェクトの設計図情報を抽出することで、提供する設計図として決定する。または、ユーザ端末200から取得された画像データに応じて、画像分析された結果として判定された、オブジェクトモデルのポージングに対応する設計図情報をリアルタイムに生成することもできる。この際、ポージングを含めたオブジェクトモデルのボクセルデータに基づいて、格納されている、色、形状を含むブロックパーツに関する情報を参照しながら、所定の規則に基づいて設計図情報が生成される。予め格納された設計図情報の中から設計図情報を抽出する形態のほうが、計算処理の時間を節約することはできるが、後者の構成の方が、ユーザがブロックオブジェクトの組み立てを希望するオブジェクトモデル(及びそのポージング)の幅を拡げることができる。 Subsequently, as processing in step S105, the object model information processing unit 132 refers to the object model information storage unit 121 of the storage unit 120 for design drawing data that presents the method for assembling the determined object model (block object). , and can be transmitted to the user terminal 200 and displayed in the format shown in FIG. 7(b), for example. As described above, the storage unit 120 stores object models and blueprint information corresponding to a plurality of posing patterns for a predetermined object model. By extracting the blueprint information of the block object that corresponds to the pose of the model, the blueprint to be provided is determined. Alternatively, according to the image data acquired from the user terminal 200, blueprint information corresponding to the pose of the object model determined as a result of image analysis can be generated in real time. At this time, based on voxel data of the object model including posing, blueprint information is generated based on predetermined rules while referring to stored information regarding block parts including color and shape. Although it is possible to save calculation processing time by extracting blueprint information from pre-stored blueprint information, the latter configuration is better because the object model that the user wishes to assemble the block object is (and its poses) can be expanded.

続いて、ステップS106の処理として、出力処理部134は、上記決定した、または、生成した設計図情報を、ユーザ端末200に送信し、ユーザ端末200のユーザインターフェース画面において、ユーザが選択したオブジェクトモデルのポージングに対応する設計図として表示させる。ここで、設計図情報に含まれるデータとして、ブロックオブジェクトを構成するパーツが、形状及び色別に分類されて識別されているところ、ユーザ端末200がブロックオブジェクトの色選択を行った場合、選択した色のブロックオブジェクトを組み立てるためのブロックパーツが、ユーザの手元に余っていない(すなわち、不足している)事態も起こり得る。かかる場合に、図7(b)のように、設計図情報に含まれるパーツに関する情報の表示に対応づけて、パーツの形状及び色毎に必要個数を、ユーザが購入することができるよう、オブジェクトモデルを識別する情報、ブロックパーツの形状及び色を識別する情報、及びブロックパーツの個数に関する情報を、二次元コード(例えば、QRコード(登録商標)等)等の情報に暗号化し、購入用の識別情報として表示させることもできる。ここで、識別情報は、各々のブロックパーツ毎に生成することもできるし、ユーザの購入の便宜のために、複数のブロックパーツの組合せとして生成することもできる。そして、ユーザは、この識別情報を読み取り可能とさせることで、不足するブロックパーツを必要個数分、オンラインまたは店頭で購入することができる。ユーザが事前にユーザID等の会員情報とともに、ブロックパーツの購入情報を履歴として、サーバ端末100の記憶部120に格納しておくことで、サーバ端末100は、購入情報を基に、組み立て対象とするブロックオブジェクトに対し、不足するブロックパーツを自動的に判別し、判別したブロックパーツに関する情報とともに、購入を促進するための識別情報を表示させることもできる。上記のように、オブジェクトモデルが特定のクリエイターによって考案されたものである場合、上記識別情報にクリエイターの識別情報を対応づけておくことで、後の購入額に応じた報酬額をクリエイターに還元する処理を容易に行うこともできる。 Subsequently, as processing in step S106, the output processing unit 134 transmits the determined or generated blueprint information to the user terminal 200, and displays the object model selected by the user on the user interface screen of the user terminal 200. Display it as a blueprint corresponding to the pose. Here, as data included in the blueprint information, parts constituting a block object are classified and identified by shape and color, and when the user terminal 200 selects a color for the block object, the selected color A situation may also occur in which the user does not have any remaining block parts for assembling the block object (that is, the block parts are in short supply). In such a case, as shown in FIG. 7(b), an object is displayed so that the user can purchase the required number of parts for each shape and color in association with the display of information about parts included in the blueprint information. Information identifying the model, information identifying the shape and color of the block parts, and information regarding the number of block parts are encrypted into information such as a two-dimensional code (e.g. QR code (registered trademark)), etc. It can also be displayed as identification information. Here, the identification information can be generated for each block part, or can be generated as a combination of a plurality of block parts for convenience of purchase by the user. By making this identification information readable, the user can purchase the necessary number of missing block parts online or at a store. By storing purchase information of block parts as a history in the storage unit 120 of the server terminal 100 in advance together with member information such as a user ID, the server terminal 100 can determine whether or not to assemble the parts based on the purchase information. It is also possible to automatically determine which block parts are missing for a block object, and to display identification information for promoting purchase along with information regarding the determined block parts. As mentioned above, if the object model was devised by a specific creator, by associating the creator's identification information with the above identification information, the amount of compensation corresponding to the subsequent purchase amount will be returned to the creator. It can also be easily processed.

以上のように、本実施形態によれば、ユーザは、組み立てたいと希望するオブジェクトモデル及びそのポージングに対応する設計図を効率的な方法で提供することができ、ユーザは規定のポージングを行うオブジェクトモデルの組み立てに限らず、様々なポージングのオブジェクトモデルの組み立てを楽しむことができる。 As described above, according to the present embodiment, the user can provide an object model that the user wishes to assemble and a blueprint corresponding to its pose in an efficient manner, and the user can You can enjoy not only assembling models, but also assembling object models in various poses.

以上、発明に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することが出来る。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。 Although the embodiments according to the invention have been described above, they can be implemented in various other forms, and can be implemented with various omissions, substitutions, and changes. These embodiments and modifications, as well as omissions, substitutions, and changes, are included within the technical scope of the claims and their equivalents.

1 システム 100 サーバ端末、110 通信部、120 記憶部、130 制御部、200 ユーザ端末、NW ネットワーク 1 system 100 server terminal, 110 communication unit, 120 storage unit, 130 control unit, 200 user terminal, NW network

Claims (4)

ユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、
前記サーバ端末の処理部は、
オブジェクトモデルの画像データを取得し、
前記画像データを解析し、
前記解析結果に基づいて、前記オブジェクトモデルのポージングを決定し、
前記サーバ端末の記憶部に格納されたオブジェクトモデルのポージングに対応するブロックオブジェクトの設計図を決定し、
前記設計図を出力し、
前記画像データは、ユーザ端末により、前記オブジェクトモデルのアニメーション画像の中から所定の操作により選択されることを特徴とする、方法。
A method for outputting a blueprint of a block object composed of a plurality of types of block parts that can be assembled, the method being executed by a processing unit of a server terminal connected to a user terminal via a network, the method comprising:
The processing unit of the server terminal includes:
Get the image data of the object model,
Analyzing the image data,
determining a pose for the object model based on the analysis result;
determining a blueprint of a block object corresponding to the pose of the object model stored in the storage unit of the server terminal;
Output the blueprint ,
A method , characterized in that the image data is selected by a user terminal from among animation images of the object model by a predetermined operation .
前記サーバ端末は、前記オブジェクトモデルの複数のポージングパターンの各々に対応するブロックオブジェクトの設計図を予め格納する、請求項1に記載の方法。 The method according to claim 1, wherein the server terminal stores in advance a blueprint of a block object corresponding to each of the plurality of posing patterns of the object model. 前記画像データは、前記オブジェクトモデルのボクセルデータである、請求項1に記載の方法。 2. The method of claim 1, wherein the image data is voxel data of the object model. 前記前記サーバ端末の記憶部に格納されたオブジェクトモデルのポージングに対応するブロックオブジェクトの設計図を決定することは、前記予め格納された設計図に基づいて決定することを特徴とする、請求項1に記載の方法。
2. The method according to claim 1, wherein determining the blueprint of the block object corresponding to the pose of the object model stored in the storage unit of the server terminal is based on the pre-stored blueprint. The method described in.
JP2023131809A 2023-08-14 2023-08-14 How to output the blueprint of a block object Active JP7390767B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023131809A JP7390767B1 (en) 2023-08-14 2023-08-14 How to output the blueprint of a block object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023131809A JP7390767B1 (en) 2023-08-14 2023-08-14 How to output the blueprint of a block object

Publications (1)

Publication Number Publication Date
JP7390767B1 true JP7390767B1 (en) 2023-12-04

Family

ID=89023110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023131809A Active JP7390767B1 (en) 2023-08-14 2023-08-14 How to output the blueprint of a block object

Country Status (1)

Country Link
JP (1) JP7390767B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008537815A (en) 2005-03-17 2008-09-25 本田技研工業株式会社 Pose estimation based on critical point analysis
US10881977B1 (en) 2019-09-11 2021-01-05 Evolutive Labs Co., Ltd. Leg assembly of a toy figure

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008537815A (en) 2005-03-17 2008-09-25 本田技研工業株式会社 Pose estimation based on critical point analysis
US10881977B1 (en) 2019-09-11 2021-01-05 Evolutive Labs Co., Ltd. Leg assembly of a toy figure

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
生田 寛和 Hirokazu Ikuta,FIT2014 第13回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文 画像認識・メディア理解 グラフィクス・画像 ヒューマンコミュニケーション&インタラクション 教育工学・福祉工学・マルチメディア応用 Forum on Information Technology 2014,日本,2014年09月18日,pp.165-168
諸戸 貴志,3Dプリンターを用いた知育玩具作成支援システム「といぷり」,電子情報通信学会技術研究報告 Vol.114 No.73 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2014年07月15日,第114巻,pp.33-38

Similar Documents

Publication Publication Date Title
CN107294838B (en) Animation generation method, device and system for social application and terminal
JP6022953B2 (en) Avatar service system and method for providing avatar in service provided in mobile environment
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
CN112598785B (en) Method, device and equipment for generating three-dimensional model of virtual image and storage medium
CN113272849A (en) Pafitril PERFITLY AR/VR platform
JP6978141B6 (en) How to generate a blueprint for a block object
KR20130087305A (en) System and method for avatar service through cable and wireless web
KR101851356B1 (en) Method for providing intelligent user interface by 3D digital actor
KR102002863B1 (en) Method and system for creating avatar of animal shape using human face
CN103200181B (en) A kind of network virtual method based on user&#39;s real identification
CN104574499A (en) cloud three-dimensional model construction system and construction method thereof
CN115857704A (en) Exhibition system based on metauniverse, interaction method and electronic equipment
JP6340313B2 (en) Modeling system, modeling program, and modeling method
US20210409612A1 (en) Camera user interface to generate content for third-party applications
KR101596724B1 (en) A system for generating multimedia content aided character customizing, an apparatus thereof, a terminal thereof, a method thereof and a computer recordable medium storing the method
JP7390767B1 (en) How to output the blueprint of a block object
JP7219997B1 (en) How to output blueprints of block objects
KR102079321B1 (en) System and method for avatar service through cable and wireless web
KR101749104B1 (en) System and method for advertisement using 3d model
JP7420420B1 (en) How to output the blueprint of a block object
JP7411294B1 (en) How to output the blueprint of a block object
JP7241441B1 (en) How to output blueprints of block objects
JP2007026088A (en) Model creation apparatus
US20230362333A1 (en) Data processing method and apparatus, device, and readable storage medium
KR102556610B1 (en) Method for custominzing of interior of 3-dimensional

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230904

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7390767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150