JP2024014161A - How to output the blueprint of a block object - Google Patents

How to output the blueprint of a block object Download PDF

Info

Publication number
JP2024014161A
JP2024014161A JP2022116787A JP2022116787A JP2024014161A JP 2024014161 A JP2024014161 A JP 2024014161A JP 2022116787 A JP2022116787 A JP 2022116787A JP 2022116787 A JP2022116787 A JP 2022116787A JP 2024014161 A JP2024014161 A JP 2024014161A
Authority
JP
Japan
Prior art keywords
block
user terminal
information
user
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022116787A
Other languages
Japanese (ja)
Other versions
JP7219997B1 (en
Inventor
彰悟 平川
Original Assignee
株式会社G-ant
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社G-ant filed Critical 株式会社G-ant
Priority to JP2022116787A priority Critical patent/JP7219997B1/en
Priority to JP2023008419A priority patent/JP2024014682A/en
Application granted granted Critical
Publication of JP7219997B1 publication Critical patent/JP7219997B1/en
Publication of JP2024014161A publication Critical patent/JP2024014161A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

【課題】ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することを目的とする。【解決手段】複数のユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、前記サーバ端末の処理部は、前記ユーザ端末から、ブロックオブジェクトに関する情報を取得し、前記ユーザ端末に表示される拡張現実空間において、前記ブロックオブジェクトの画像を表示させ、前記ユーザ端末から、ブロックパーツに関する情報を受信し、前記拡張現実空間において、前記ブロックパーツの画像を、前記ブロックオブジェクトに対して識別可能なように表示させる。【選択図】図6An object of the present invention is to provide a method that allows a user to easily assemble block objects using block parts. [Solution] A method for outputting a blueprint of a block object composed of multiple types of block parts that can be assembled and executed by a processing unit of a server terminal connected to multiple user terminals via a network. The processing unit of the server terminal acquires information regarding the block object from the user terminal, displays an image of the block object in the augmented reality space displayed on the user terminal, and acquires information about the block object from the user terminal. Information regarding the part is received, and an image of the block part is displayed in the augmented reality space so as to be distinguishable from the block object. [Selection diagram] Figure 6

Description

本発明は、ブロックオブジェクトの設計図を出力する方法に関する。 The present invention relates to a method for outputting a blueprint of a block object.

ユーザが、レゴブリックのようなブロックパーツを使って動物、建物、乗り物等のブロックオブジェクトモデルを組み立てる玩具が普及している。 2. Description of the Related Art Toys that allow users to assemble block object models such as animals, buildings, and vehicles using block parts such as Lego bricks have become popular.

例えば、特許文献1において、ブロックオブジェクトを構成するブロックパーツの設計を効率化させる方法が開示されている。 For example, Patent Document 1 discloses a method for streamlining the design of block parts that constitute a block object.

特許5665872号Patent No. 5665872

しかしながら、上記特許文献1に開示されている技術によって、ブロックパーツの設計の効率化及び可視化を実現することは可能なものの、ユーザ視点に立って、ブロックオブジェクトを組み立てるイメージを可視化する方法を実現する方法は開示されていない。 However, although it is possible to realize the efficiency and visualization of the design of block parts using the technology disclosed in Patent Document 1, it is not possible to realize a method for visualizing an image of assembling block objects from the user's perspective. The method was not disclosed.

そこで、本発明は、ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a method that allows a user to easily assemble block objects using block parts.

本発明の一態様における、ユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、前記サーバ端末の処理部は、前記ユーザ端末から、ブロックパーツに関する情報を取得し、前記ブロックパーツに関する情報に基づいて、組み立て可能なブロックオブジェクトを決定し、前記ブロックオブジェクトの設計図情報及び前記ブロックパーツに関する情報を表示させ、前記ブロックオブジェクトの設計図情報を更新し、前記更新された設計図情報に基づいてブロックパーツに関する情報を更新し、前記更新されたブロックパーツに関する情報を表示させる。本発明の一態様における、ユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、前記サーバ端末の処理部は、前記ユーザ端末から、ブロックオブジェクトに関する情報を取得し、前記ユーザ端末に表示される拡張現実空間において、前記ブロックオブジェクトの画像を表示させ、前記ユーザ端末から、ブロックパーツに関する情報を受信し、前記拡張現実空間において、前記ブロックパーツの画像を、前記ブロックオブジェクトに対して識別可能なように表示させる。 In one aspect of the present invention, a method for outputting a blueprint of a block object composed of multiple types of block parts that can be assembled is executed by a processing unit of a server terminal connected to a user terminal via a network. The processing unit of the server terminal acquires information regarding block parts from the user terminal, determines an assembleable block object based on the information regarding the block parts, and acquires blueprint information and information about the block object. Information about the block parts is displayed, blueprint information of the block object is updated, information about the block parts is updated based on the updated blueprint information, and information about the updated block parts is displayed. In one aspect of the present invention, a method for outputting a blueprint of a block object composed of multiple types of block parts that can be assembled is executed by a processing unit of a server terminal connected to a user terminal via a network. The processing unit of the server terminal acquires information regarding the block object from the user terminal, displays an image of the block object in the augmented reality space displayed on the user terminal, and from the user terminal, Information regarding the block part is received, and an image of the block part is displayed in the augmented reality space so as to be distinguishable from the block object.

本発明によれば、ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することができる。 According to the present invention, it is possible to provide a method that allows a user to easily assemble block objects using block parts.

本発明の第一実施形態に係る、ブロックオブジェクトを推奨する方法を提供するシステムを示すブロック構成図である。FIG. 1 is a block configuration diagram showing a system that provides a method for recommending block objects according to a first embodiment of the present invention. 図1のサーバ端末100を示す機能ブロック構成図である。2 is a functional block configuration diagram showing the server terminal 100 of FIG. 1. FIG. 図1のユーザ端末200を示す機能ブロック構成図である。2 is a functional block configuration diagram showing the user terminal 200 of FIG. 1. FIG. サーバ100に格納されるオブジェクトモデル情報の一例を示す図である。3 is a diagram showing an example of object model information stored in the server 100. FIG. サーバ100に格納されるブロックパーツ情報の一例を示す図である。3 is a diagram showing an example of block parts information stored in the server 100. FIG. 本発明の第一実施形態に係る、ブロックオブジェクトの設計図を出力する方法の詳細を示すフローチャートの一例である。It is an example of the flowchart which shows the detail of the method of outputting the blueprint of a block object based on 1st embodiment of this invention. 本発明の第一実施形態に係る、ブロックオブジェクトの設計図を出力する方法の詳細を示すフローチャートの他の一例である。It is another example of a flowchart showing details of a method for outputting a design drawing of a block object according to the first embodiment of the present invention. 本発明の第一実施形態に係る、ユーザ端末に表示される、ブロックオブジェクトの一例である。1 is an example of a block object displayed on a user terminal according to the first embodiment of the present invention. 本発明の第一実施形態に係る、基本ブロックパーツの一例を説明する図である。It is a figure explaining an example of basic block parts concerning a first embodiment of the present invention. 本発明の第一実施形態に係る、ユーザ端末に表示されるブロックオブジェクトに対してブロックパーツを識別表示する一例である。This is an example of identifying and displaying block parts with respect to a block object displayed on a user terminal according to the first embodiment of the present invention.

以下、本発明の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本発明の必須の構成要素であるとは限らない。 Embodiments of the present invention will be described below with reference to the drawings. Note that the embodiments described below do not unduly limit the content of the present invention described in the claims. Furthermore, not all of the components shown in the embodiments are essential components of the present invention.

<構成>
図1は、本発明の第一実施形態に係る、ブロックオブジェクトを推奨する方法を提供するシステムを示すブロック構成図である。本システム1は、ユーザ端末200またはセンサ装置300から取得したブロックパーツの座標情報に基づいて、ブロックオブジェクトの設計図情報を生成するサーバ端末100と、ブロックオブジェクトを組み立てる各ユーザに関連付けられた、ユーザ端末200A、200Bとで構成される。以下、説明の便宜のため、ユーザ端末200A、200Bを総称して、ユーザ端末200として説明する。
<Configuration>
FIG. 1 is a block configuration diagram showing a system that provides a method for recommending block objects according to a first embodiment of the present invention. This system 1 includes a server terminal 100 that generates blueprint information of a block object based on coordinate information of block parts acquired from a user terminal 200 or a sensor device 300, and a user associated with each user who assembles the block object. It is composed of terminals 200A and 200B. Hereinafter, for convenience of explanation, the user terminals 200A and 200B will be collectively referred to as the user terminal 200.

ここで、複数のブロックパーツで構成されるブロックオブジェクトの例として、本実施形態において、動物オブジェクトを例として説明するが、他に、人、ロボット、乗り物及び建物等が挙げられ、一つの例に限定されない。 Here, in this embodiment, an animal object will be explained as an example of a block object composed of a plurality of block parts, but other examples include people, robots, vehicles, buildings, etc. Not limited.

サーバ端末100とユーザ端末200は各々、ネットワークNWを介して接続される。ネットワークNWは、インターネット、イントラネット、無線LAN(Local Area Network)やWAN(Wide Area Network)等により構成される。 Server terminal 100 and user terminal 200 are each connected via network NW. The network NW includes the Internet, an intranet, a wireless LAN (Local Area Network), a WAN (Wide Area Network), and the like.

サーバ端末100は、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。本実施形態においては、説明の便宜上サーバ端末として1台を例示しているが、これに限定されず、複数台であってもよい。 The server terminal 100 may be, for example, a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing. In this embodiment, one server terminal is illustrated for convenience of explanation, but the number is not limited to this, and a plurality of server terminals may be used.

ユーザ端末200は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置であるが、スマートフォンや携帯電話、PDA等により構成しても良い。 The user terminal 200 is, for example, an information processing device such as a personal computer or a tablet terminal, but may also be configured by a smartphone, a mobile phone, a PDA, or the like.

本実施形態では、システム1は、サーバ端末100及びユーザ端末200を有し、ユーザがユーザ端末200を利用して、サーバ端末100に対する操作を行う構成として説明するが、サーバ端末100がスタンドアローンで構成され、サーバ端末自身に、各ユーザが直接操作を行う機能を備えても良い。 In this embodiment, the system 1 will be described as having a server terminal 100 and a user terminal 200, and a user uses the user terminal 200 to operate the server terminal 100, but the server terminal 100 is standalone. The server terminal itself may have a function that each user can directly operate.

図2は、図1のサーバ端末100の機能ブロック構成図である。サーバ端末100は、通信部110と、記憶部120と、制御部130とを備える。 FIG. 2 is a functional block diagram of the server terminal 100 in FIG. 1. As shown in FIG. The server terminal 100 includes a communication section 110, a storage section 120, and a control section 130.

通信部110は、ネットワークNWを介してユーザ端末200と通信を行うための通信インターフェースであり、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)等の通信規約により通信が行われる。 The communication unit 110 is a communication interface for communicating with the user terminal 200 via the network NW, and communication is performed according to a communication protocol such as TCP/IP (Transmission Control Protocol/Internet Protocol).

記憶部120は、各種制御処理や制御部130内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。また、記憶部120は、オブジェクトモデルに関連する情報等を格納する、オブジェクトモデル情報格納部121、及びオブジェクトモデルを基に生成されたブロックパーツ情報等を格納する、ブロックパーツ情報格納部122を有する。なお、各種データを格納したデータベース(図示せず)が記憶部120またはサーバ端末100外に構築されていてもよい。 The storage unit 120 stores programs, input data, etc. for executing various control processes and functions within the control unit 130, and is composed of RAM (Random Access Memory), ROM (Read Only Memory), etc. Ru. The storage unit 120 also includes an object model information storage unit 121 that stores information related to the object model, and a block parts information storage unit 122 that stores block parts information generated based on the object model. . Note that a database (not shown) storing various data may be constructed outside the storage unit 120 or the server terminal 100.

制御部130は、記憶部120に記憶されているプログラムを実行することにより、サーバ端末100の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。制御部130の機能として、ユーザ端末200からの指示等の情報を受け付ける情報受付部131、オブジェクトモデルに関連する各種情報を参照し、処理する、オブジェクトモデル情報処理部132、ブロックパーツに関連する各種情報を参照し、処理するブロックパーツ情報処理部133、及び、ブロックオブジェクトに関連する設計図情報をユーザ端末に出力させるよう送信する処理を行う出力処理部134を有する。この情報受付部131、オブジェクトモデル情報処理部132、ブロックパーツ情報処理部133、及び出力処理部134は、記憶部120に記憶されているプログラムにより起動されてコンピュータ(電子計算機)であるサーバ端末100により実行される。 The control unit 130 controls the overall operation of the server terminal 100 by executing a program stored in the storage unit 120, and is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc. be done. The functions of the control unit 130 include an information reception unit 131 that receives information such as instructions from the user terminal 200, an object model information processing unit 132 that refers to and processes various information related to object models, and various types related to block parts. It includes a block part information processing unit 133 that refers to and processes information, and an output processing unit 134 that performs a process of transmitting blueprint information related to a block object to be outputted to a user terminal. The information reception unit 131, object model information processing unit 132, block parts information processing unit 133, and output processing unit 134 are activated by a program stored in the storage unit 120 and are connected to the server terminal 100, which is a computer (electronic computer). Executed by

情報受付部131は、サーバ端末100が提供し、ユーザ端末200において、ウェブブラウザまたはアプリケーションを介して表示される画面等のユーザインターフェースを介して、ユーザが、(テキストを入力したり、アイコンを押下する等して)所定の要求を行ったとき、ユーザ端末200から情報を受け付け、または、センサ装置300で生成された、ブロックパーツの座標情報を、ユーザ端末200及び通信部110を介して受付ける。 The information reception unit 131 is provided by the server terminal 100, and allows the user (to enter text or press an icon) through a user interface such as a screen displayed via a web browser or application on the user terminal 200. When a predetermined request is made (e.g.), information is received from the user terminal 200, or coordinate information of the block parts generated by the sensor device 300 is received via the user terminal 200 and the communication unit 110.

オブジェクトモデル処理部132は、オブジェクトモデルに関連する情報をオブジェクトモデル情報格納部121に格納したり、格納されたオブジェクトモデル情報を参照する処理を行う。 The object model processing unit 132 stores information related to object models in the object model information storage unit 121 and performs processing to refer to stored object model information.

ブロックパーツ情報処理部133は、ブロックパーツに関連する情報をブロックパーツ情報格納部122に格納したり、格納されたブロックパーツ情報を参照する処理を行う。 The block parts information processing unit 133 stores information related to block parts in the block parts information storage unit 122, and performs processing to refer to the stored block parts information.

出力処理部134は、ユーザ端末200にブロックオブジェクトに関連する設計図情報等を表示させるため、ユーザ端末200に対し必要な情報を送信する処理を行う。この際、出力処理部134は、記憶部120に格納された画像及びテキストデータを素材として、所定のレイアウト規則に基づいて、各種画像及びテキストをユーザインターフェースの所定の領域に配置することで、ユーザ端末200のインターフェースに表示されるために必要な画面情報を生成することができる。この画面情報生成処理は、GPU(Graphics Processing Unit)によって実行することもできる。 The output processing unit 134 performs a process of transmitting necessary information to the user terminal 200 in order to display blueprint information related to the block object on the user terminal 200. At this time, the output processing unit 134 uses the image and text data stored in the storage unit 120 as materials and arranges various images and texts in a predetermined area of the user interface based on predetermined layout rules. Screen information necessary to be displayed on the interface of the terminal 200 can be generated. This screen information generation process can also be executed by a GPU (Graphics Processing Unit).

図3は、図1のユーザ端末200を示す機能ブロック構成図である。ユーザ端末200は、通信部210と、表示操作部220と、記憶部230と、制御部240とを備える。 FIG. 3 is a functional block configuration diagram showing the user terminal 200 of FIG. 1. The user terminal 200 includes a communication section 210, a display operation section 220, a storage section 230, and a control section 240.

通信部210は、ネットワークNWを介してサーバ端末100と通信を行うための通信インターフェースであり、例えばTCP/IP等の通信規約により通信が行われる。また、通信部210は、近距離無線通信等を介してセンサ装置300と通信を行うための通信インターフェースを備えることもできる。 The communication unit 210 is a communication interface for communicating with the server terminal 100 via the network NW, and communication is performed according to a communication protocol such as TCP/IP. Further, the communication unit 210 can also include a communication interface for communicating with the sensor device 300 via short-range wireless communication or the like.

表示操作部220は、ユーザが指示を入力し、制御部240からの入力データに応じてテキスト、画像等を表示するために用いられるユーザインターフェースであり、ユーザ端末200がパーソナルコンピュータで構成されている場合はディスプレイとキーボードやマウスにより構成され、ユーザ端末200がスマートフォンまたはタブレット端末で構成されている場合はタッチパネル等から構成される。この表示操作部220は、記憶部230に記憶されている制御プログラムにより起動されてコンピュータ(電子計算機)であるユーザ端末200により実行される。 The display operation unit 220 is a user interface used by the user to input instructions and display text, images, etc. in accordance with input data from the control unit 240, and the user terminal 200 is configured with a personal computer. If the user terminal 200 is a smart phone or a tablet device, the user terminal 200 is composed of a touch panel or the like. This display operation section 220 is activated by a control program stored in a storage section 230 and executed by the user terminal 200, which is a computer (electronic computer).

記憶部230は、各種制御処理や制御部240内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAMやROM等から構成される。また、記憶部230は、サーバ端末100との通信内容を一時的に記憶している。 The storage unit 230 stores programs, input data, etc. for executing various control processes and functions within the control unit 240, and is composed of a RAM, a ROM, and the like. Furthermore, the storage unit 230 temporarily stores the contents of communication with the server terminal 100.

制御部240は、記憶部230に記憶されているプログラムを実行することにより、ユーザ端末200の全体の動作を制御するものであり、CPUやGPU等から構成される。 The control unit 240 controls the overall operation of the user terminal 200 by executing a program stored in the storage unit 230, and is composed of a CPU, a GPU, and the like.

なお、サーバ端末100に表示操作部の機能を備える構成としても良く、この場合、ユーザ端末200を備えない構成としても良い。また、その他、ユーザ端末200は、(図示しない)カメラを備えてもよく、この場合、カメラは、ブロックパーツに備えられるARマーカを撮像することで、ブロックパーツの(形状、色等によって決定される)種類等を識別し、拡張現実(AR)空間における座標を決定することができる。 Note that the configuration may be such that the server terminal 100 is provided with the function of a display operation section, or in this case, the configuration may be such that the user terminal 200 is not provided. In addition, the user terminal 200 may be equipped with a camera (not shown), and in this case, the camera captures an image of an AR marker provided on the block parts to determine the shape, color, etc. of the block parts. It is possible to identify the type, etc.) and determine the coordinates in augmented reality (AR) space.

図4は、サーバ100に格納されるオブジェクトモデル情報の一例を示す図である。 FIG. 4 is a diagram showing an example of object model information stored in the server 100.

図4に示すオブジェクトモデル情報1000は、サーバ端末100に関連するサービス運営者またはユーザ端末200に関連するユーザが生成したオブジェクトモデルに関連する情報等を格納する。図4において、説明の便宜上、一オブジェクトモデル(オブジェクトID「10001」で識別されるユーザ)の例を示すが、複数のオブジェクトモデルの情報を格納することができる。オブジェクトモデルに関連する各種データとして、オブジェクトモデルの3Dモデルデータ、オブジェクトモデルの断面データ、また、オブジェクトモデルを組み立てるために必要な、一または複数種のブロックパーツ及び個数に関連するデータ、断面の層(レイヤー)毎に配置されるブロックパーツに関連する設計図情報等の情報を含むことができる。ここで、3Dモデルデータは、2Dモデルデータを所定の処理により3Dモデルに変換されたものとして格納することもできる。 Object model information 1000 shown in FIG. 4 stores information related to an object model generated by a service operator associated with server terminal 100 or a user associated with user terminal 200. In FIG. 4, for convenience of explanation, an example of one object model (a user identified by object ID "10001") is shown, but information on a plurality of object models can be stored. Various data related to the object model include 3D model data of the object model, cross-sectional data of the object model, data related to one or more types of block parts and their number, and layers of the cross-section necessary to assemble the object model. Information such as blueprint information related to block parts arranged for each (layer) can be included. Here, the 3D model data can also be stored as 2D model data converted into a 3D model by predetermined processing.

図5は、サーバ100に格納されるブロックパーツ情報の一例を示す図である。 FIG. 5 is a diagram showing an example of block parts information stored in the server 100.

図5に示すブロックパーツ情報2000は、ブロックパーツの形状、サイズ、色及び重さに関連する情報等を格納する。図5において、説明の便宜上、一ブロックパーツ(ID「20001」で識別されるブロックパーツ)の例を示すが、複数のブロックパーツに関連する情報を格納することができる。ブロックパーツに関連する各種データとして、例えば、ブロックオブジェクトを組み立てる部品に相当するブロックパーツに関連する(ブロックパーツの形状、サイズ、色、各々のブロックパーツの個数等からなる)データを含むことができる。ここで、複数種のブロックパーツの各々は固有の色と関連づけられることができるが、これに限らない。 Block parts information 2000 shown in FIG. 5 stores information related to the shape, size, color, weight, etc. of block parts. In FIG. 5, for convenience of explanation, an example of one block part (block part identified by ID "20001") is shown, but information related to a plurality of block parts can be stored. Various data related to block parts may include, for example, data related to block parts corresponding to parts for assembling a block object (consisting of shape, size, color, number of each block part, etc.) . Here, each of the plurality of types of block parts can be associated with a unique color, but the invention is not limited thereto.

図6は、本発明の第一実施形態に係る、ブロックオブジェクトの設計図の出力方法を示すフローチャートの一例である。 FIG. 6 is an example of a flowchart illustrating a method for outputting a blueprint of a block object according to the first embodiment of the present invention.

事前の処理として、ユーザは、ユーザ端末200のウェブブラウザまたは(アプリケーションをインストールする場合は)アプリケーション等を利用してサーバ端末100にアクセスする。ウェブサイトまたはアプリケーション等を介してユーザインターフェース上に所定の画面が表示される。ユーザは、事前に、後述する基本ブロックパーツを手元に所有しており、基本ブロックパーツに関する情報が、サーバ端末100の記憶部120のブロックパーツ情報格納部122に格納されている。 As a preliminary process, the user accesses the server terminal 100 using the web browser of the user terminal 200 or an application (if installing an application). A predetermined screen is displayed on a user interface via a website, application, or the like. The user already has basic block parts, which will be described later, on hand, and information regarding the basic block parts is stored in the block parts information storage section 122 of the storage section 120 of the server terminal 100.

そして、ステップS101の処理として、サーバ端末100の制御部130の情報受付部131は、ユーザ端末200から、ネットワーク及び通信部110を介して、ユーザがこれから組み立てたい、とする、ブロックオブジェクトに関する情報を受信する。ここで、ユーザは、ユーザ端末200上で表示されるユーザーインターフェース画面において、複数のブロックオブジェクトの中から、所望のブロックオブジェクトを選択することができる。本例においては、ユーザは、図8(a)に示すような、カエルのブロックオブジェクトを組み立てたい、と考え、ユーザ端末200上で表示されるユーザーインターフェース画面において、カエルのブロックオブジェクトを組み立てたい旨入力操作を行うと、サーバ端末100は、カエルに対応するブロックオブジェクトに関する情報を受信する。 Then, as the process of step S101, the information reception unit 131 of the control unit 130 of the server terminal 100 receives information regarding the block object that the user wants to assemble from the user terminal 200 via the network and communication unit 110. Receive. Here, the user can select a desired block object from among the plurality of block objects on the user interface screen displayed on the user terminal 200. In this example, the user wants to assemble a frog block object as shown in FIG. When the input operation is performed, the server terminal 100 receives information regarding the block object corresponding to the frog.

続いて、ステップS102の処理として、サーバ端末100の制御部130のオブジェクトモデル情報処理部132は、受信されたブロックオブジェクトモデルに関する情報に基づいて、記憶部120のオブジェクトモデル情報格納部121を参照し、ユーザが選択したブロックオブジェクトの3Dデータに基づいて、ユーザ端末200にブロックオブジェクトを表示させる処理を実行する。ここで、ユーザ端末200のユーザーインターフェース画面には、AR空間が表示され、ユーザ端末200に備えられたカメラによって撮像される現実空間に、上記3Dデータに基づいて生成されるブロックオブジェクトの画像が表示される。ここで、ユーザは、AR空間内に表示されるブロックオブジェクトの画像を、所定のコントローラやタッチパネルのピンチやズーム等の操作により、拡大、縮小、回転等させることができる。 Subsequently, as processing in step S102, the object model information processing section 132 of the control section 130 of the server terminal 100 refers to the object model information storage section 121 of the storage section 120 based on the received information regarding the block object model. , executes a process of displaying the block object on the user terminal 200 based on the 3D data of the block object selected by the user. Here, an AR space is displayed on the user interface screen of the user terminal 200, and an image of the block object generated based on the 3D data is displayed in the real space imaged by the camera equipped on the user terminal 200. be done. Here, the user can enlarge, reduce, rotate, etc. the image of the block object displayed in the AR space by pinching, zooming, or other operations on a predetermined controller or touch panel.

続いて、ステップS103の処理として、サーバ端末100の制御部130の情報受付部131は、ユーザ端末200から、ネットワーク及び通信部110を介して、ユーザが所有する一のブロックパーツに関する情報を受信する。ここで、ユーザは、ユーザ端末200に備えられたカメラによって自らが所有するブロックパーツを撮影すると、ブロックパーツに貼付等されたARマーカを識別し、識別された情報がサーバ端末100に送信される。ARマークを介して識別された情報を基に、サーバ端末100のブロックパーツ情報処理部133は、ブロックパーツの種類(形状、色及び大きさのいずれかまたは組合せ等で定義される種類)を識別する。また、ブロックパーツ情報処理部133は、ブロックパーツのAR空間内における座標を識別することもできる。 Subsequently, as processing in step S103, the information reception unit 131 of the control unit 130 of the server terminal 100 receives information regarding one block part owned by the user from the user terminal 200 via the network and communication unit 110. . Here, when the user photographs a block part that he or she owns using a camera installed in the user terminal 200, the user identifies the AR marker affixed to the block part, and the identified information is transmitted to the server terminal 100. . Based on the information identified through the AR mark, the block parts information processing unit 133 of the server terminal 100 identifies the type of block parts (the type defined by any one or a combination of shape, color, and size). do. Further, the block parts information processing unit 133 can also identify the coordinates of the block parts in the AR space.

続いて、ステップS104の処理として、サーバ端末100の制御部130のオブジェクトモデル情報処理部132は、記憶部120のオブジェクトモデル情報格納部121に格納された、オブジェクトモデルの設計図情報を参照し、受信したブロックパーツに関する情報から識別されたブロックパーツに関する情報を基に、当該ブロックパーツが、ブロックオブジェクトの組み立てに必要なブロックパーツであるか否かを決定し、ブロックオブジェクトの組み立てに必要なブロックパーツである場合には、サーバ端末100の制御部130の出力処理部134は、ユーザ端末200のユーザーインターフェース画面を介して表示されるAR空間に配置されるブロックオブジェクトにおいて、当該ブロックパーツ部分を色分け表示させたり、点滅表示させる等して、ブロックパーツの識別表示を行う。 Subsequently, as processing in step S104, the object model information processing unit 132 of the control unit 130 of the server terminal 100 refers to the object model blueprint information stored in the object model information storage unit 121 of the storage unit 120, Based on the information about the block parts identified from the received information about the block parts, it is determined whether the block part is a block part necessary for assembling the block object, and the block part necessary for assembling the block object is determined. In this case, the output processing unit 134 of the control unit 130 of the server terminal 100 displays the block parts in color in the block object arranged in the AR space displayed via the user interface screen of the user terminal 200. The block parts are identified by displaying them in a flashing or flashing manner.

例えば、図8(b)は、カエルのオブジェクトモデルの設計図データの一部の例である。設計図データは、各層において、オブジェクトモデルを構成するために必要なブロックパーツの配置領域を、座標情報とともに、色別に示すものである。本設計図データとともに、ブロックパーツ情報処理部133は、記憶部120のブロックパーツ情報格納部122に格納されるブロックパーツ情報を参照し、図9に示すような、予め決められたブロックパーツのうち、いずれのブロックパーツが、設計図情報に含まれるブロックパーツの配置領域において、いずれの領域で使用されるかを決定し、受信されたブロックパーツが、当該決定されたブロックパーツと一致するかを確認する。ここで、ブロックパーツ同士が一致することを確認すると、すなわち、ユーザが所有するブロックパーツがブロックオブジェクトの組み立てに使用されることを確認すると、出力処理部134は、図10に示すようの、AR空間内に表示されるユーザオブジェクトのうち、当該ブロックパーツを使用する箇所がわかるよう、ブロックパーツの画像を色分け表示させたり、点滅表示させたりする等して識別表示を行う。 For example, FIG. 8(b) is an example of part of the blueprint data of a frog object model. The blueprint data indicates, in each layer, the arrangement areas of block parts necessary for configuring the object model by color together with coordinate information. Along with the main design drawing data, the block parts information processing section 133 refers to the block parts information stored in the block parts information storage section 122 of the storage section 120, and selects among the predetermined block parts as shown in FIG. , determine which block part is used in which area of the block part placement area included in the blueprint information, and determine whether the received block part matches the determined block part. confirm. Here, when it is confirmed that the block parts match each other, that is, when it is confirmed that the block parts owned by the user are used to assemble the block object, the output processing unit 134 outputs the AR In order to identify where the block part is used among the user objects displayed in the space, the image of the block part is displayed in different colors or blinks for identification.

図7は、本発明の第一実施形態に係る、ブロックオブジェクトの設計図の出力方法を示すフローチャートの他の一例である。 FIG. 7 is another example of a flowchart showing a method for outputting a design drawing of a block object according to the first embodiment of the present invention.

本例においては、上記ステップS104の処理において、ブロックパーツを識別表示させる際に、AR空間内にユーザの手持ちのブロックパーツを表示させるときに、表示されるブロックパーツの実際の大きさに合わせて、同じくAR空間内に表示させるブロックオブジェクトの大きさを再調整し、ブロックパーツと重ね合わせて表示させる等して、ユーザが手持ちのブロックパーツを用いて容易にブロックオブジェクトを組み立てできるようにするものである。 In this example, in the process of step S104, when displaying the block parts in an identifying manner, when displaying the block parts held by the user in the AR space, the block parts are adjusted according to the actual size of the displayed block parts. , which also allows users to easily assemble block objects using the block parts they have by readjusting the size of block objects displayed in AR space and displaying them overlapping block parts. It is.

まず、ステップS201の処理において、サーバ端末100の制御部130のオブジェクトモデル情報処理部132は、記憶部120のオブジェクトモデル情報格納部121に格納された、オブジェクトモデルの3Dモデル情報を参照し、上記受信された、ユーザの手持ちのブロックパーツに備えられたARマーカを介したブロックパーツのAR空間内の座標情報を基に、ブロックパーツの大きさを判定し、AR空間内に表示させるオブジェクトモデルの大きさを、オブジェクトモデルを構成するブロックパーツの大きさが、ユーザにより所有される実際のブロックパーツの大きさに合うように再調整(リサイズ)する。 First, in the process of step S201, the object model information processing section 132 of the control section 130 of the server terminal 100 refers to the 3D model information of the object model stored in the object model information storage section 121 of the storage section 120, and Based on the received coordinate information of the block part in the AR space via the AR marker provided on the block part held by the user, the size of the block part is determined and the object model to be displayed in the AR space is determined. The size is readjusted (resized) so that the size of the block parts constituting the object model matches the size of the actual block parts owned by the user.

続いて、ステップS202の処理において、サーバ端末100の制御部130の出力処理部134は、上記の通り、大きさを再調整されたブロックオブジェクトの画像を、ユーザ端末200のユーザーインターフェース画面に表示されるAR空間内において、ブロックパーツの画像に重畳させて表示させる。ここで、出力処理部134は、ブロックオブジェクトを半透明にして表示させることで、ブロックオブジェクトとブロックパーツとを区別して表示させることができるため、ユーザは、より容易にブロックオブジェクトを組み立てることができる。 Subsequently, in the process of step S202, the output processing unit 134 of the control unit 130 of the server terminal 100 displays the image of the block object whose size has been readjusted as described above on the user interface screen of the user terminal 200. It is displayed superimposed on the image of the block parts in the AR space. Here, the output processing unit 134 can display the block objects in a semi-transparent manner so that the block objects and the block parts can be displayed in a distinguishable manner, so that the user can more easily assemble the block objects. .

以上のように、本実施形態によれば、ユーザが、ブロックオブジェクトを組み立てるときに、AR空間内において、ブロックオブジェクトとともに、手持ちのブロックパーツを使用箇所等を識別して表示させることで、ユーザは、容易にブロックオブジェクトを組み立てることができる。 As described above, according to the present embodiment, when a user assembles a block object, the user can identify and display the used block parts together with the block object in the AR space. , you can easily assemble block objects.

以上、発明に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することが出来る。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。 Although the embodiments according to the invention have been described above, they can be implemented in various other forms, and can be implemented with various omissions, substitutions, and changes. These embodiments and modifications, as well as omissions, substitutions, and changes, are included within the technical scope of the claims and their equivalents.

1 システム 100 サーバ端末、110 通信部、120 記憶部、130 制御部、200 ユーザ端末、NW ネットワーク 1 system 100 server terminal, 110 communication unit, 120 storage unit, 130 control unit, 200 user terminal, NW network

Claims (5)

ユーザ端末とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、
前記サーバ端末の処理部は、
前記ユーザ端末から、ブロックオブジェクトに関する情報を取得し、
前記ユーザ端末に表示される拡張現実空間において、前記ブロックオブジェクトの画像を表示させ、
前記ユーザ端末から、ブロックパーツに関する情報を受信し、
前記拡張現実空間において、前記ブロックパーツの画像を、前記ブロックオブジェクトに対して識別可能なように表示させる、方法。
A method for outputting a blueprint of a block object composed of a plurality of types of block parts that can be assembled, the method being executed by a processing unit of a server terminal connected to a user terminal via a network, the method comprising:
The processing unit of the server terminal includes:
obtaining information regarding the block object from the user terminal;
displaying an image of the block object in an augmented reality space displayed on the user terminal;
receiving information regarding block parts from the user terminal;
A method for displaying an image of the block part in a manner distinguishable from the block object in the augmented reality space.
前記ブロックパーツの画像を、前記ブロックオブジェクトの組み立てに必要な箇所において表示させる、請求項1に記載の方法。 The method according to claim 1, wherein images of the block parts are displayed at locations necessary for assembling the block object. 前記ユーザ端末により前記ブロックパーツを撮像し、前記ブロックパーツに備えられたARマーカを介して、前記ブロックパーツに関する情報を受信する、請求項1に記載の方法。 The method according to claim 1, wherein the user terminal images the block part and receives information about the block part via an AR marker provided on the block part. 前記オブジェクトモデルの画像を、前記ブロックパーツの画像の大きさに合わせてリサイズする、請求項1に記載の方法。 The method according to claim 1, wherein the image of the object model is resized to match the size of the image of the block part. 前記ブロックオブジェクトの画像を半透明にする、請求項1に記載の方法。























The method of claim 1, wherein the image of the block object is made translucent.























JP2022116787A 2022-07-21 2022-07-21 How to output blueprints of block objects Active JP7219997B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022116787A JP7219997B1 (en) 2022-07-21 2022-07-21 How to output blueprints of block objects
JP2023008419A JP2024014682A (en) 2022-07-21 2023-01-23 How to output the blueprint of a block object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022116787A JP7219997B1 (en) 2022-07-21 2022-07-21 How to output blueprints of block objects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023008419A Division JP2024014682A (en) 2022-07-21 2023-01-23 How to output the blueprint of a block object

Publications (2)

Publication Number Publication Date
JP7219997B1 JP7219997B1 (en) 2023-02-09
JP2024014161A true JP2024014161A (en) 2024-02-01

Family

ID=85173907

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022116787A Active JP7219997B1 (en) 2022-07-21 2022-07-21 How to output blueprints of block objects
JP2023008419A Pending JP2024014682A (en) 2022-07-21 2023-01-23 How to output the blueprint of a block object

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023008419A Pending JP2024014682A (en) 2022-07-21 2023-01-23 How to output the blueprint of a block object

Country Status (1)

Country Link
JP (2) JP7219997B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7411294B1 (en) 2023-04-19 2024-01-11 株式会社G-ant How to output the blueprint of a block object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109221A (en) * 2005-09-15 2007-04-26 Ricoh Co Ltd Part management system, part management method, program and recording medium
JP2014515961A (en) * 2011-05-23 2014-07-07 レゴ エー/エス Toy construction system for augmented reality
JP6978141B1 (en) * 2021-08-18 2021-12-08 株式会社G−ant How to generate a blueprint for a block object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109221A (en) * 2005-09-15 2007-04-26 Ricoh Co Ltd Part management system, part management method, program and recording medium
JP2014515961A (en) * 2011-05-23 2014-07-07 レゴ エー/エス Toy construction system for augmented reality
JP6978141B1 (en) * 2021-08-18 2021-12-08 株式会社G−ant How to generate a blueprint for a block object

Also Published As

Publication number Publication date
JP2024014682A (en) 2024-02-01
JP7219997B1 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
CN107294838B (en) Animation generation method, device and system for social application and terminal
JP6978141B1 (en) How to generate a blueprint for a block object
JP5776201B2 (en) Information processing apparatus, information sharing method, program, and terminal apparatus
EP3457253B1 (en) Collaboration methods to improve use of 3d models in mixed reality environments
CN104574499A (en) cloud three-dimensional model construction system and construction method thereof
CN112070906A (en) Augmented reality system and augmented reality data generation method and device
US10950050B2 (en) Information processing device, information processing method, and program for planning and execution of work plan
JP2024014682A (en) How to output the blueprint of a block object
JP2010218107A (en) Panorama vr file providing apparatus, program, method, and system
JP7122584B1 (en) How to output blueprints of block objects
JP7122583B1 (en) How to generate blueprints for block objects
CN104102759B (en) Building model image display system and method thereof
JP2020184267A (en) Three-dimensional cad device and three-dimensional cad program
JP7411294B1 (en) How to output the blueprint of a block object
JP7241441B1 (en) How to output blueprints of block objects
JP7138375B1 (en) TERMINAL DEVICE, VIRTUAL REALITY SPACE EDITING SYSTEM, PROGRAM AND VIRTUAL REALITY SPACE EDITING METHOD
CN113678099B (en) Software analysis supporting system and computer readable recording medium thereof
JP2007004442A (en) Panorama virtual reality file providing device, program, method, and system
CN113872798A (en) Method and device for constructing space network topological graph, storage medium and electronic equipment
WO2010119829A1 (en) Information processing device, information processing method, and program
JP7470466B1 (en) How to generate blueprints for block objects
JP4646273B2 (en) Architectural design support system, method and program thereof
JP2007026088A (en) Model creation apparatus
KR102523515B1 (en) User-selectable meta verse space combination design system incorporating the concept of unit space
JP2006040129A (en) System and method for advertisement information registration/display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221027

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7219997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150