JP2023103947A - How to generate blueprints for block objects - Google Patents

How to generate blueprints for block objects Download PDF

Info

Publication number
JP2023103947A
JP2023103947A JP2022111465A JP2022111465A JP2023103947A JP 2023103947 A JP2023103947 A JP 2023103947A JP 2022111465 A JP2022111465 A JP 2022111465A JP 2022111465 A JP2022111465 A JP 2022111465A JP 2023103947 A JP2023103947 A JP 2023103947A
Authority
JP
Japan
Prior art keywords
information
block
sensor device
user
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022111465A
Other languages
Japanese (ja)
Other versions
JP2023103947A5 (en
Inventor
彰悟 平川
Shogo Hirakawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
G Ant Co Ltd
Original Assignee
G Ant Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by G Ant Co Ltd filed Critical G Ant Co Ltd
Priority to JP2022111465A priority Critical patent/JP2023103947A/en
Publication of JP2023103947A publication Critical patent/JP2023103947A/en
Publication of JP2023103947A5 publication Critical patent/JP2023103947A5/ja
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Processing Or Creating Images (AREA)
  • Toys (AREA)

Abstract

To provide a method for allowing a user to build a block object more easily by using block parts.SOLUTION: The method according to an aspect of the present invention is a method for outputting a design drawing of a buildable block object made of a plurality of types of block parts, which is executed by a processing unit of a server terminal connected to a sensor device by a network. The processing unit of the server terminal acquires coordinate information of block parts from the sensor device, analyzes coordinates to show design drawing information of the block object on the basis of the coordinate information, and displays the design information on the basis of the analyzed coordinates.SELECTED DRAWING: Figure 7

Description

本発明は、ブロックオブジェクトを推奨する方法に関する。 The present invention relates to a method for recommending block objects.

ユーザが、レゴブリックのようなブロックパーツを使って動物、建物、乗り物等のブロックオブジェクトモデルを組み立てる玩具が普及している。 Toys in which a user builds block object models such as animals, buildings, vehicles, etc. using block parts such as Lego bricks are popular.

例えば、特許文献1において、ブロックオブジェクトを構成するブロックパーツの設計を効率化させる方法が開示されている。 For example, Patent Literature 1 discloses a method for streamlining the design of block parts forming a block object.

特許5665872号Patent No. 5665872

しかしながら、上記特許文献1に開示されている技術によって、ブロックパーツの設計の効率化及び可視化を実現することは可能なものの、ユーザ視点に立って、ブロックオブジェクトを組み立てるイメージを可視化する方法を実現する方法は開示されていない。 However, although the technique disclosed in Patent Literature 1 can realize efficiency in designing and visualization of block parts, it realizes a method of visualizing an image of assembling block objects from the user's point of view. No method is disclosed.

そこで、本発明は、ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a method that makes it easier for a user to assemble a block object using block parts.

本発明の一態様における、センサ装置とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、前記サーバ端末の処理部は、前記センサ装置から、ブロックパーツの座標情報を取得し、前記座標情報に基づいて、前記ブロックオブジェクトの設計図情報を表示させるための座標を分析し、前記分析した座標に基づいて、前記設計図情報を表示させる。 In one aspect of the present invention, a method for outputting a blueprint of an assembleable block object composed of a plurality of types of block parts, which is executed by a processing unit of a server terminal connected to a sensor device via a network. The processing unit of the server terminal acquires the coordinate information of the block parts from the sensor device, analyzes the coordinates for displaying the blueprint information of the block object based on the coordinate information, and The design drawing information is displayed based on the analyzed coordinates.

本発明によれば、ユーザがブロックパーツを使ってブロックオブジェクトを組み立てやすくする方法を提供することができる。 According to the present invention, it is possible to provide a method that makes it easier for a user to assemble a block object using block parts.

本発明の第一実施形態に係る、ブロックオブジェクトを推奨する方法を提供するシステムを示すブロック構成図である。1 is a block diagram illustrating a system for providing a method for recommending block objects according to a first embodiment of the present invention; FIG. 図1のサーバ端末100を示す機能ブロック構成図である。2 is a functional block configuration diagram showing a server terminal 100 of FIG. 1; FIG. 図1のユーザ端末200を示す機能ブロック構成図である。2 is a functional block configuration diagram showing a user terminal 200 of FIG. 1; FIG. 図1のセンサ装置300を示す機能ブロック構成図である。2 is a functional block configuration diagram showing the sensor device 300 of FIG. 1; FIG. サーバ100に格納されるオブジェクトモデル情報の一例を示す図である。4 is a diagram showing an example of object model information stored in the server 100; FIG. サーバ100に格納されるブロックパーツ情報の一例を示す図である。4 is a diagram showing an example of block parts information stored in the server 100; FIG. 本発明の第一実施形態に係る、ブロックオブジェクトの設計図を生成する方法の詳細を示すフローチャートの一例である。FIG. 4 is an example of a flow chart showing details of a method for generating a blueprint of a block object according to the first embodiment of the present invention; FIG. 本発明の第一実施形態に係る、ブロックオブジェクトの設計図を生成する方法の詳細を示すフローチャートの他の一例である。FIG. 11 is another example of a flowchart showing details of a method for generating a blueprint of a block object according to the first embodiment of the present invention; FIG. 本発明の第一実施形態に係る、ユーザ端末に表示される、組み立て可能なオブジェクトモデルの画面の一例である。It is an example of the screen of the assembleable object model displayed on the user terminal according to the first embodiment of the present invention. 本発明の第一実施形態に係る、ユーザ端末に表示される、組み立て可能なオブジェクトモデルの画面の他の一例である。It is another example of the screen of the assembleable object model displayed on the user terminal according to the first embodiment of the present invention.

以下、本発明の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本発明の必須の構成要素であるとは限らない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below do not unduly limit the scope of the invention described in the claims. Moreover, not all the constituent elements shown in the embodiments are essential constituent elements of the present invention.

<構成>
図1は、本発明の第一実施形態に係る、ブロックオブジェクトを推奨する方法を提供するシステムを示すブロック構成図である。本システム1は、ユーザ端末200またはセンサ装置300から取得したブロックパーツの座標情報に基づいて、ブロックオブジェクトの設計図情報を生成するサーバ端末100と、ブロックオブジェクトを組み立てる各ユーザに関連付けられた、ユーザ端末200A、200Bと、ユーザ端末の各々と連携し、ブロックオブジェクトの座標情報を生成するセンサ装置300A、300Bと、で構成される。以下、説明の便宜のため、ユーザ端末200A、200Bを総称して、ユーザ端末200として説明し、センサ装置300A、300Bを総称して、センサ装置300として説明する。
<Configuration>
FIG. 1 is a block diagram illustrating a system for providing a method for recommending block objects according to a first embodiment of the present invention. This system 1 includes a server terminal 100 that generates block object design drawing information based on coordinate information of block parts acquired from a user terminal 200 or a sensor device 300, and a user Terminals 200A and 200B and sensor devices 300A and 300B that cooperate with each of the user terminals and generate coordinate information of block objects. Hereinafter, for convenience of explanation, the user terminals 200A and 200B will be collectively referred to as the user terminal 200, and the sensor devices 300A and 300B will be collectively referred to as the sensor device 300. FIG.

ここで、複数のブロックパーツで構成されるブロックオブジェクトの例として、本実施形態において、動物オブジェクトを例として説明するが、他に、人、ロボット、乗り物及び建物等が挙げられ、一つの例に限定されない。 Here, as an example of a block object composed of a plurality of block parts, an animal object will be described as an example in this embodiment. Not limited.

サーバ端末100とユーザ端末200は各々、ネットワークNWを介して接続される。ネットワークNWは、インターネット、イントラネット、無線LAN(Local Area Network)やWAN(Wide Area Network)等により構成される。 The server terminal 100 and the user terminal 200 are each connected via a network NW. The network NW includes the Internet, an intranet, a wireless LAN (Local Area Network), a WAN (Wide Area Network), and the like.

サーバ端末100は、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。本実施形態においては、説明の便宜上サーバ端末として1台を例示しているが、これに限定されず、複数台であってもよい。 The server terminal 100 may be, for example, a general-purpose computer such as a workstation or personal computer, or may be logically realized by cloud computing. In the present embodiment, one server terminal is exemplified for convenience of explanation, but the present invention is not limited to this, and a plurality of server terminals may be used.

ユーザ端末200は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置であるが、スマートフォンや携帯電話、PDA等により構成しても良い。 The user terminal 200 is, for example, an information processing device such as a personal computer or a tablet terminal, but may be configured by a smart phone, a mobile phone, a PDA, or the like.

本実施形態では、システム1は、サーバ端末100及びユーザ端末200を有し、ユーザがユーザ端末200を利用して、サーバ端末100に対する操作を行う構成として説明するが、サーバ端末100がスタンドアローンで構成され、サーバ端末自身に、各ユーザが直接操作を行う機能を備えても良い。 In this embodiment, the system 1 has a server terminal 100 and a user terminal 200, and a user uses the user terminal 200 to operate the server terminal 100. The server terminal itself may be provided with a function for direct operation by each user.

また、センサ装置300は、例えば、ユーザ端末200を操作するマウスのような装置であり、ブロックパーツを載置可能な土台及び土台の座標情報を生成可能な加速度センサ等のセンサを備え、ユーザ端末200とBluetooth(登録商標)等の近距離無線通信により接続し、ペアリングされる。 The sensor device 300 is, for example, a device such as a mouse for operating the user terminal 200, and includes a base on which block parts can be placed and a sensor such as an acceleration sensor capable of generating coordinate information of the base. 200 by short-range wireless communication such as Bluetooth (registered trademark) to establish pairing.

図2は、図1のサーバ端末100の機能ブロック構成図である。サーバ端末100は、通信部110と、記憶部120と、制御部130とを備える。 FIG. 2 is a functional block configuration diagram of the server terminal 100 of FIG. The server terminal 100 includes a communication section 110 , a storage section 120 and a control section 130 .

通信部110は、ネットワークNWを介してユーザ端末200と通信を行うための通信インターフェースであり、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)等の通信規約により通信が行われる。 The communication unit 110 is a communication interface for communicating with the user terminal 200 via the network NW, and communication is performed according to a communication protocol such as TCP/IP (Transmission Control Protocol/Internet Protocol).

記憶部120は、各種制御処理や制御部130内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。また、記憶部120は、オブジェクトモデルに関連する情報等を格納する、オブジェクトモデル情報格納部121、及びオブジェクトモデルを基に生成されたブロックパーツ情報等を格納する、ブロックパーツ情報格納部122を有する。なお、各種データを格納したデータベース(図示せず)が記憶部120またはサーバ端末100外に構築されていてもよい。 The storage unit 120 stores programs, input data, and the like for executing various control processes and functions in the control unit 130, and is composed of a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. be. The storage unit 120 also has an object model information storage unit 121 that stores information related to the object model, and a block parts information storage unit 122 that stores block parts information generated based on the object model. . A database (not shown) storing various data may be constructed outside the storage unit 120 or the server terminal 100 .

制御部130は、記憶部120に記憶されているプログラムを実行することにより、サーバ端末100の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。制御部130の機能として、ユーザ端末200からの指示等の情報を受け付ける情報受付部131、オブジェクトモデルに関連する各種情報を参照し、処理する、オブジェクトモデル情報処理部132、ブロックパーツに関連する各種情報を参照し、処理するブロックパーツ情報処理部133、ブロックオブジェクトに関連する設計図情報をユーザ端末に出力させるよう送信する処理を行う出力処理部134、及び、ユーザ端末200またはセンサ装置300から受信したブロックパーツに関連する座標情報を解析する、座標分析部135を有する。この情報受付部131、オブジェクトモデル情報処理部132、ブロックパーツ情報処理部133、出力処理部134、及び座標分析部135は、記憶部120に記憶されているプログラムにより起動されてコンピュータ(電子計算機)であるサーバ端末100により実行される。 The control unit 130 controls the overall operation of the server terminal 100 by executing a program stored in the storage unit 120, and is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like. be done. The functions of the control unit 130 include an information reception unit 131 that receives information such as instructions from the user terminal 200, an object model information processing unit 132 that refers to and processes various types of information related to object models, and various types of information related to block parts. A block parts information processing unit 133 that refers to and processes information, an output processing unit 134 that performs processing for transmitting design drawing information related to block objects to the user terminal, and receives from the user terminal 200 or the sensor device 300 and a coordinate analysis unit 135 for analyzing coordinate information associated with the block parts. The information reception unit 131, the object model information processing unit 132, the block parts information processing unit 133, the output processing unit 134, and the coordinate analysis unit 135 are activated by a program stored in the storage unit 120 and run on a computer (electronic computer). is executed by the server terminal 100.

情報受付部131は、サーバ端末100が提供し、ユーザ端末200において、ウェブブラウザまたはアプリケーションを介して表示される画面等のユーザインターフェースを介して、ユーザが、(テキストを入力したり、アイコンを押下する等して)所定の要求を行ったとき、ユーザ端末200から情報を受け付け、または、センサ装置300で生成された、ブロックパーツの座標情報を、ユーザ端末200及び通信部110を介して受付ける。 The information reception unit 131 is provided by the server terminal 100, and the user (enters text, presses an icon When a predetermined request is made, information is received from the user terminal 200 , or coordinate information of block parts generated by the sensor device 300 is received via the user terminal 200 and the communication unit 110 .

オブジェクトモデル処理部132は、オブジェクトモデルに関連する情報をオブジェクトモデル情報格納部121に格納したり、格納されたオブジェクトモデル情報を参照する処理を行う。 The object model processing unit 132 stores information related to the object model in the object model information storage unit 121 and performs processing for referring to the stored object model information.

ブロックパーツ情報処理部133は、ブロックパーツに関連する情報をブロックパーツ情報格納部122に格納したり、格納されたブロックパーツ情報を参照する処理を行う。 The block parts information processing unit 133 stores information related to block parts in the block parts information storage unit 122 and performs processing for referring to the stored block parts information.

出力処理部134は、ユーザ端末200にブロックオブジェクトに関連する設計図情報等を表示させるため、ユーザ端末200に対し必要な情報を送信する処理を行う。この際、出力処理部134は、記憶部120に格納された画像及びテキストデータを素材として、所定のレイアウト規則に基づいて、各種画像及びテキストをユーザインターフェースの所定の領域に配置することで、ユーザ端末200のインターフェースに表示されるために必要な画面情報を生成することができる。この画面情報生成処理は、GPU(Graphics Processing Unit)によって実行することもできる。 The output processing unit 134 performs a process of transmitting necessary information to the user terminal 200 so that the user terminal 200 displays design drawing information and the like related to the block object. At this time, the output processing unit 134 uses the image and text data stored in the storage unit 120 as materials and arranges various images and text in a predetermined area of the user interface based on a predetermined layout rule, so that the user can Screen information required to be displayed on the interface of the terminal 200 can be generated. This screen information generation process can also be executed by a GPU (Graphics Processing Unit).

座標分析部135は、センサ装置300またはユーザ端末200から取得した、ブロックパーツに関する座標情報を解析し、ユーザ端末200にブロックオブジェクトに関連する設計図情報等を表示させるに際して、表示上のブロックオブジェクトの傾きを決定する処理を行う。 The coordinate analysis unit 135 analyzes the coordinate information about the block parts acquired from the sensor device 300 or the user terminal 200, and when causing the user terminal 200 to display the blueprint information and the like related to the block object, the coordinate analysis unit 135 analyzes the block object on the display. Perform processing to determine the inclination.

図3は、図1のユーザ端末200を示す機能ブロック構成図である。ユーザ端末200は、通信部210と、表示操作部220と、記憶部230と、制御部240とを備える。 FIG. 3 is a functional block configuration diagram showing the user terminal 200 of FIG. The user terminal 200 includes a communication section 210 , a display operation section 220 , a storage section 230 and a control section 240 .

通信部210は、ネットワークNWを介してサーバ端末100と通信を行うための通信インターフェースであり、例えばTCP/IP等の通信規約により通信が行われる。また、通信部210は、近距離無線通信等を介してセンサ装置300と通信を行うための通信インターフェースを備えることもできる。 The communication unit 210 is a communication interface for communicating with the server terminal 100 via the network NW, and communication is performed according to a communication protocol such as TCP/IP. The communication unit 210 can also include a communication interface for communicating with the sensor device 300 via short-range wireless communication or the like.

表示操作部220は、ユーザが指示を入力し、制御部240からの入力データに応じてテキスト、画像等を表示するために用いられるユーザインターフェースであり、ユーザ端末200がパーソナルコンピュータで構成されている場合はディスプレイとキーボードやマウスにより構成され、ユーザ端末200がスマートフォンまたはタブレット端末で構成されている場合はタッチパネル等から構成される。この表示操作部220は、記憶部230に記憶されている制御プログラムにより起動されてコンピュータ(電子計算機)であるユーザ端末200により実行される。 The display operation unit 220 is a user interface used by the user to input instructions and display text, images, etc. according to input data from the control unit 240, and the user terminal 200 is configured by a personal computer. When the user terminal 200 is a smart phone or a tablet terminal, it is composed of a touch panel or the like. The display operation unit 220 is activated by a control program stored in the storage unit 230 and executed by the user terminal 200, which is a computer (electronic calculator).

記憶部230は、各種制御処理や制御部240内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAMやROM等から構成される。また、記憶部230は、サーバ端末100との通信内容を一時的に記憶している。 The storage unit 230 stores programs, input data, and the like for executing various control processes and functions in the control unit 240, and is composed of RAM, ROM, and the like. Further, the storage unit 230 temporarily stores communication contents with the server terminal 100 .

制御部240は、記憶部230に記憶されているプログラムを実行することにより、ユーザ端末200の全体の動作を制御するものであり、CPUやGPU等から構成される。 The control unit 240 controls the overall operation of the user terminal 200 by executing programs stored in the storage unit 230, and is composed of a CPU, a GPU, and the like.

なお、サーバ端末100に表示操作部の機能を備える構成としても良く、この場合、ユーザ端末200を備えない構成としても良い。 Note that the server terminal 100 may be configured to have the function of the display operation unit, and in this case, the configuration may be configured without the user terminal 200 .

図4は、図1のセンサ装置300を示す機能ブロック構成図である。センサ装置300は、通信部310と、加速度320と、入力部330と、制御部340とを備える。 FIG. 4 is a functional block configuration diagram showing the sensor device 300 of FIG. Sensor device 300 includes communication unit 310 , acceleration 320 , input unit 330 , and control unit 340 .

通信部310は、ネットワークNWを介してサーバ端末100と通信を行うための通信インターフェースであり、例えばTCP/IP等の通信規約により通信が行われる。また、通信部210は、近距離無線通信等を介してユーザ端末200と通信を行うための通信インターフェースを備えることもできる。 The communication unit 310 is a communication interface for communicating with the server terminal 100 via the network NW, and communication is performed according to a communication protocol such as TCP/IP. The communication unit 210 can also include a communication interface for communicating with the user terminal 200 via near field communication or the like.

加速度センサ320は、ユーザがセンサ装置300に備えられる(図示しない)、ブロックパーツを載置する土台の、センサ装置300が置かれた平面に対するX軸、Y軸、Z軸方向の傾きを測定し、座標情報を生成する。なお、センサとして、加速度センサに限らず、角速度センサ等、土台の平面に対する傾きを検知可能な、他のセンサを用いることもできる。 Acceleration sensor 320 measures the inclination of a base (not shown) provided to sensor device 300 by the user, on which block parts are placed, in the X-axis, Y-axis, and Z-axis directions with respect to the plane on which sensor device 300 is placed. , to generate coordinate information. The sensor is not limited to the acceleration sensor, and other sensors capable of detecting the tilt of the base with respect to the plane, such as an angular velocity sensor, can also be used.

入力部330は、ユーザ端末200に表示される画面に対する操作を実行するための指示を入力するためのインタフェースであり、例えば、物理的なボタンや液晶画面に表示されるボタンであってもよい。 The input unit 330 is an interface for inputting instructions for executing operations on the screen displayed on the user terminal 200, and may be physical buttons or buttons displayed on a liquid crystal screen, for example.

制御部340は、(図示しない)記憶部に記憶されているプログラムを実行することにより、センサ装置300の全体の動作を制御するものであり、CPUやGPU等から構成される。 The control unit 340 controls the overall operation of the sensor device 300 by executing a program stored in a storage unit (not shown), and is composed of a CPU, a GPU, and the like.

図5は、サーバ100に格納されるオブジェクトモデル情報の一例を示す図である。 FIG. 5 is a diagram showing an example of object model information stored in the server 100. As shown in FIG.

図5に示すオブジェクトモデル情報1000は、サーバ端末100に関連するサービス運営者またはユーザ端末200に関連するユーザが生成したオブジェクトモデルに関連する情報等を格納する。図4において、説明の便宜上、一オブジェクトモデル(オブジェクトID「10001」で識別されるユーザ)の例を示すが、複数のオブジェクトモデルの情報を格納することができる。オブジェクトモデルに関連する各種データとして、オブジェクトモデルの3Dモデルデータ、オブジェクトモデルの断面データ、また、オブジェクトモデルを組み立てるために必要な、一または複数種のブロックパーツ及び個数に関連するデータ、断面の層(レイヤー)毎に配置されるブロックパーツに関連する設計図情報等の情報を含むことができる。ここで、3Dモデルデータは、2Dモデルデータを所定の処理により3Dモデルに変換されたものとして格納することもできる。 The object model information 1000 shown in FIG. 5 stores information related to an object model generated by a service operator related to the server terminal 100 or a user related to the user terminal 200, and the like. FIG. 4 shows an example of one object model (user identified by object ID "10001") for convenience of explanation, but information of a plurality of object models can be stored. Various data related to the object model, such as 3D model data of the object model, cross-section data of the object model, data related to one or more types of block parts and their number necessary to assemble the object model, cross-section layer Information such as blueprint information related to block parts arranged for each (layer) can be included. Here, the 3D model data can also be stored as 2D model data converted into a 3D model by predetermined processing.

図6は、サーバ100に格納されるブロックパーツ情報の一例を示す図である。 FIG. 6 is a diagram showing an example of block parts information stored in the server 100. As shown in FIG.

図6に示すブロックパーツ情報2000は、ブロックパーツの形状、サイズ、色及び重さに関連する情報等を格納する。図6において、説明の便宜上、一ブロックパーツ(ID「20001」で識別されるブロックパーツ)の例を示すが、複数のブロックパーツに関連する情報を格納することができる。ブロックパーツに関連する各種データとして、例えば、ブロックオブジェクトを組み立てる部品に相当するブロックパーツに関連する(ブロックパーツの形状、サイズ、色等からなる)データを含むことができる。ここで、複数種のブロックパーツの各々は固有の色と関連づけられることができるが、これに限らない。 The block parts information 2000 shown in FIG. 6 stores information related to the shape, size, color and weight of block parts. FIG. 6 shows an example of one block part (a block part identified by ID "20001") for convenience of explanation, but information related to a plurality of block parts can be stored. Various data related to block parts can include, for example, data (consisting of the shape, size, color, etc. of block parts) related to block parts corresponding to parts for assembling block objects. Here, each of the multiple types of block parts can be associated with a unique color, but is not limited to this.

図7は、本発明の第一実施形態に係る、ブロックオブジェクトの設計図の表示方法を示すフローチャートの一例である。 FIG. 7 is an example of a flowchart showing a method of displaying a design drawing of a block object according to the first embodiment of the present invention.

ここで、本システム1を利用するために、ユーザは、ユーザ端末200とセンサ装置300とを近距離無線通信等によりペアリングを行い、ユーザの手持ちのブロックパーツをセンサ装置300の(図示しない)土台に載置する。ここで、土台は、ブロックパーツを載置した際に嵌合できるよう、ブロックパーツを載置する面に突起部が備えられていてもよい。 Here, in order to use the system 1, the user performs pairing between the user terminal 200 and the sensor device 300 by short-range wireless communication or the like, and attaches the block parts held by the user to the sensor device 300 (not shown). Place it on the base. Here, the base may have projections on the surface on which the block parts are placed so that they can be fitted when the block parts are placed.

事前の処理として、ユーザは、ユーザ端末200のウェブブラウザまたは(アプリケーションをインストールする場合は)アプリケーション等を利用してサーバ端末100にアクセスする。ウェブサイトまたはアプリケーション等を介してユーザインターフェース上に所定の画面が表示される。ユーザは、ユーザ端末200を操作して、ユーザ端末200のユーザインターフェース上に表示される複数のブロックオブジェクトの中から、組み立てを行うブロックオブジェクトを選択する。選択されたブロックオブジェクトに関する情報が、ネットワーク経由で、サーバ端末100に送信され、サーバ端末100の通信部110及び制御部130の情報受付部131を介して、受け付けられる。 As a preliminary process, the user accesses the server terminal 100 using the web browser of the user terminal 200 or (when installing an application) an application or the like. A predetermined screen is displayed on a user interface via a website, an application, or the like. A user operates the user terminal 200 to select a block object to be assembled from among a plurality of block objects displayed on the user interface of the user terminal 200 . Information about the selected block object is transmitted to the server terminal 100 via the network and received via the communication section 110 of the server terminal 100 and the information receiving section 131 of the control section 130 .

また、ユーザは、ユーザ端末200と近距離無線通信等によりペアリングされたセンサ装置300に回転機構を介して備えられた土台にブロックパーツを載置し、組み立てをブロックオブジェクトの組み立てを行うために、土台を回転させたり、傾けたりする。土台を傾けたり、回転させたりすることに応じて、センサ装置300に内蔵された加速度センサ320が、センサ装置300が置かれた、テーブル台等の地面に対する土台の傾きや回転に応じた座標(地面に対するX軸、Y軸、Z軸方向の土台の位置情報)検知し、座標情報を生成する。センサ装置300は、生成された座標情報を、近距離無線通信等を介して、ユーザ端末200に送信する。 In addition, the user places the block parts on a base provided via a rotation mechanism in the sensor device 300 paired with the user terminal 200 by short-range wireless communication or the like, and assembles the block object. , rotating and tilting the base. When the base is tilted or rotated, the acceleration sensor 320 incorporated in the sensor device 300 detects coordinates ( Positional information of the base in the X-axis, Y-axis, and Z-axis directions with respect to the ground) is detected, and coordinate information is generated. The sensor device 300 transmits the generated coordinate information to the user terminal 200 via near field communication or the like.

そして、ステップS101の処理として、サーバ端末100の制御部130の情報受付部131は、ユーザ端末200から、ネットワーク及び通信部110を介して、センサ装置300で生成された座標情報を受信する。ここで、センサ装置300がネットワーク等を介してサーバ端末100と接続される場合は、情報受付部131は、センサ装置300から直接座標情報を受信することもできる。 Then, as the process of step S101, the information reception unit 131 of the control unit 130 of the server terminal 100 receives the coordinate information generated by the sensor device 300 from the user terminal 200 via the network and the communication unit 110. FIG. Here, when the sensor device 300 is connected to the server terminal 100 via a network or the like, the information reception unit 131 can also receive coordinate information directly from the sensor device 300 .

続いて、ステップS102の処理として、サーバ端末100の制御部130の座標分析部135は、受信された座標情報を分析し、ユーザ端末200にブロックオブジェクトの設計図として表示される3D空間内における、ブロックパーツで構成されるオブジェクトモデルの座標情報に変換する。 Subsequently, as the process of step S102, the coordinate analysis unit 135 of the control unit 130 of the server terminal 100 analyzes the received coordinate information, Convert to coordinate information of object model composed of block parts.

続いて、ステップS103の処理として、サーバ端末100の制御部130の出力処理部134は、前ステップで分析された座標情報を基に、ユーザ端末200に表示させる設計図情報として、3D空間内にオブジェクトモデルの配置することで画面情報を生成することで、出力処理を行う。 Subsequently, as the process of step S103, the output processing unit 134 of the control unit 130 of the server terminal 100, based on the coordinate information analyzed in the previous step, creates design drawing information to be displayed on the user terminal 200 in the 3D space. Output processing is performed by generating screen information by arranging the object model.

図9は、本発明の第一実施形態に係る、ユーザ端末に表示される、組み立て可能なオブジェクトモデルの画面の一例である。本図のように、ユーザ端末200にブロックオブジェクトの設計図として、オブジェクトモデルが表示され、ユーザは、センサ装置300に載置されたブロックオブジェクトの傾きに応じた設計図情報をユーザ端末200上で参照しながら、容易にブロックオブジェクトの組み立てを行うことができる。ここで、ユーザ端末200に表示された設計図情報について、一または複数のユーザ端末上に表示された設計図情報に対応する座標情報の履歴を格納しておき、格納された座標情報に基づいて、ユーザが最も見やすい位置で設計図情報を、静止画または動画形式で表示させることができる。 FIG. 9 is an example of a screen of a composable object model displayed on the user terminal according to the first embodiment of the present invention. As shown in this figure, an object model is displayed as a design drawing of a block object on the user terminal 200, and the user can display design drawing information corresponding to the tilt of the block object placed on the sensor device 300 on the user terminal 200. You can easily assemble block objects while referring to them. Here, for the design drawing information displayed on the user terminal 200, a history of coordinate information corresponding to the design drawing information displayed on one or more user terminals is stored, and based on the stored coordinate information, , the design drawing information can be displayed in a still image or moving image format at a position where the user can see it most easily.

図8は、本発明の第一実施形態に係る、ブロックオブジェクトの設計図の表示方法を示すフローチャートの他の一例である。 FIG. 8 is another example of a flow chart showing a method of displaying a design drawing of a block object according to the first embodiment of the present invention.

ユーザは、センサ装置300に備えられた入力部330(例えば、マウスのクリックボタン)を操作し、ユーザ端末200に表示された設計図情報において、ブロックオブジェクトを組み立ての進行の指示を行うことで、ステップS201の処理として、サーバ端末100の制御部130の情報受付部131は、ユーザ端末200から、ネットワーク及び通信部110を介して、ブロックオブジェクトの組み立ての進行指示要求を受信する。ここで、センサ装置300がネットワーク等を介してサーバ端末100と接続される場合は、情報受付部131は、センサ装置300から直接指示要求を受信することもできる。 The user operates the input unit 330 (for example, a click button of a mouse) provided in the sensor device 300 and instructs the progress of assembling the block objects in the design drawing information displayed on the user terminal 200. As the process of step S<b>201 , the information reception unit 131 of the control unit 130 of the server terminal 100 receives a block object assembly progress instruction request from the user terminal 200 via the network and the communication unit 110 . Here, when the sensor device 300 is connected to the server terminal 100 via a network or the like, the information reception unit 131 can also receive the instruction request directly from the sensor device 300 .

例えば、図10に示すように、ユーザ端末200においてブロックオブジェクトの設計図情報が表示され、ユーザは、図10(a)に表示されるオブジェクトモデルに倣ってブロックパーツの組み立てを行い、センサ装置300に備えられた入力部330を用いて、画面上の「進む」アイコンを指示し、クリックを行うことで、組み立ての進行指示を要求することができる。
For example, as shown in FIG. 10, design drawing information of a block object is displayed on the user terminal 200, and the user follows the object model displayed in FIG. By using the input unit 330 provided on the screen to indicate and click on the "Proceed" icon on the screen, it is possible to request an instruction to proceed with the assembly.

続いて、ステップS202の処理として、サーバ端末100の制御部130のオブジェクトモデル処理部132は、記憶部120のオブジェクトモデル情報格納部121に格納された、オブジェクトモデルの設計図情報を参照し、現在ユーザ端末200に表示されている設計図情報に対して、次の組み立て操作を可能とするための設計図情報を決定する。 Subsequently, as the process of step S202, the object model processing unit 132 of the control unit 130 of the server terminal 100 refers to the design drawing information of the object model stored in the object model information storage unit 121 of the storage unit 120, and Design drawing information for enabling the next assembly operation is determined for the design drawing information displayed on the user terminal 200 .

続いて、ステップS203の処理として、サーバ端末100の制御部130の出力処理部134は、前ステップで決定された設計図情報を基に、ユーザ端末200に表示させる設計図情報として、3D空間内にオブジェクトモデルの配置することで画面情報を生成する。 Subsequently, as the process of step S203, the output processing unit 134 of the control unit 130 of the server terminal 100, based on the design drawing information determined in the previous step, outputs the design drawing information to be displayed on the user terminal 200 in the 3D space. The screen information is generated by arranging the object model in the .

例えば、図10(b)に示すように、図10(a)に表示された設計図情報に含まれるオブジェクトモデルを構成する、複数層からなるブロックパーツに対し、1層を追加したブロックパーツを含むオブジェクトモデルが表示されている。 For example, as shown in FIG. 10(b), a block part obtained by adding one layer to the multi-layered block parts constituting the object model included in the blueprint information displayed in FIG. 10(a). The containing object model is displayed.

続いて、ステップS204の処理として、サーバ端末100の制御部130の出力処理部134は、生成した画面情報をユーザ端末200に対し送信することで、出力処理を行う。 Subsequently, as the processing of step S204, the output processing unit 134 of the control unit 130 of the server terminal 100 performs output processing by transmitting the generated screen information to the user terminal 200. FIG.

以上のように、本実施形態によれば、ユーザがセンサ装置に載置されるブロックオブジェクトに関連する情報を、ユーザは手間なくサーバ端末100に送信することができ、また、サーバ端末100は受信した情報を基に、ユーザが現在組立を行っているブロックオブジェクトの傾き等の座標情報を分析することで、ユーザに対し、ユーザが見ている方向と同じ設計図情報を提示することができ、ユーザは、容易にブロックオブジェクトを組み立てることができる。 As described above, according to the present embodiment, the user can easily transmit information related to block objects placed on the sensor device to the server terminal 100, and the server terminal 100 can receive the information. By analyzing the coordinate information such as the tilt of the block object that the user is currently assembling based on the information obtained, it is possible to present the design drawing information to the user in the same direction as the user is looking. A user can easily assemble block objects.

以上、発明に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することが出来る。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。 Although the embodiments according to the invention have been described above, they can be implemented in various other forms, and can be implemented with various omissions, substitutions, and modifications. These embodiments, modifications, omissions, substitutions and changes are included within the technical scope of the claims and their equivalents.

1 システム 100 サーバ端末、110 通信部、120 記憶部、130 制御部、200 ユーザ端末、300 センサ装置、NW ネットワーク 1 system 100 server terminal, 110 communication unit, 120 storage unit, 130 control unit, 200 user terminal, 300 sensor device, NW network

Claims (5)

センサ装置とネットワークを介して接続されるサーバ端末の処理部によって実行される、組み立て可能な、複数種のブロックパーツで構成されるブロックオブジェクトの設計図を出力する方法であって、
前記サーバ端末の処理部は、
前記センサ装置から、ブロックパーツの座標情報を取得し、
前記座標情報に基づいて、前記ブロックオブジェクトの設計図情報を表示させるための座標を分析し、
前記分析した座標に基づいて、前記設計図情報を表示させる、方法。
A method for outputting a blueprint of an assembleable block object composed of a plurality of types of block parts, which is executed by a processing unit of a server terminal connected to a sensor device via a network, comprising:
The processing unit of the server terminal,
Acquiring coordinate information of block parts from the sensor device,
analyzing coordinates for displaying blueprint information of the block object based on the coordinate information;
A method of displaying the engineering drawing information based on the analyzed coordinates.
前記センサ装置は、加速度センサを備える、請求項1に記載の方法。 2. The method of claim 1, wherein the sensor device comprises an acceleration sensor. さらに、前記サーバ端末と前記ネットワークを介して接続されるユーザ端末から、前記ブロックオブジェクトの選択要求を受け付ける、請求項1に記載の方法。 2. The method according to claim 1, further comprising accepting a request for selecting said block object from a user terminal connected to said server terminal via said network. 前記センサ装置から、前記設計図情報の更新する要求を受け付け、
前記更新する要求に基づいて、前記設計図情報を更新する、請求項1に記載の方法。
Receiving a request to update the design drawing information from the sensor device,
2. The method of claim 1, wherein said blueprint information is updated based on said request to update.
前記設計図情報として、前記ブロックオブジェクトのアニメーションを表示させる、請求項1に記載の方法。


























2. The method according to claim 1, wherein an animation of said block object is displayed as said blueprint information.


























JP2022111465A 2022-01-14 2022-07-11 How to generate blueprints for block objects Pending JP2023103947A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022111465A JP2023103947A (en) 2022-01-14 2022-07-11 How to generate blueprints for block objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022004703A JP7122583B1 (en) 2022-01-14 2022-01-14 How to generate blueprints for block objects
JP2022111465A JP2023103947A (en) 2022-01-14 2022-07-11 How to generate blueprints for block objects

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022004703A Division JP7122583B1 (en) 2022-01-14 2022-01-14 How to generate blueprints for block objects

Publications (2)

Publication Number Publication Date
JP2023103947A true JP2023103947A (en) 2023-07-27
JP2023103947A5 JP2023103947A5 (en) 2025-01-28

Family

ID=82940123

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022004703A Active JP7122583B1 (en) 2022-01-14 2022-01-14 How to generate blueprints for block objects
JP2022111465A Pending JP2023103947A (en) 2022-01-14 2022-07-11 How to generate blueprints for block objects

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022004703A Active JP7122583B1 (en) 2022-01-14 2022-01-14 How to generate blueprints for block objects

Country Status (1)

Country Link
JP (2) JP7122583B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420420B1 (en) 2023-04-19 2024-01-23 株式会社G-ant How to output the blueprint of a block object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060136180A1 (en) * 2003-05-20 2006-06-22 Hansen Mark W Selecting virtual brick models
JP2009093330A (en) * 2007-10-05 2009-04-30 Ntt Comware Corp DESIGN SYSTEM, DESIGN METHOD, MODEL IMAGE OUTPUT DEVICE AND ITS PROGRAM
JP2013506896A (en) * 2009-10-02 2013-02-28 レゴ エー/エス Shape optimization based on connectivity for real-time rendering
JP2014096111A (en) * 2012-11-12 2014-05-22 Veldt Inc Three-dimensional data generation system
JP6978141B1 (en) * 2021-08-18 2021-12-08 株式会社G−ant How to generate a blueprint for a block object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060136180A1 (en) * 2003-05-20 2006-06-22 Hansen Mark W Selecting virtual brick models
JP2009093330A (en) * 2007-10-05 2009-04-30 Ntt Comware Corp DESIGN SYSTEM, DESIGN METHOD, MODEL IMAGE OUTPUT DEVICE AND ITS PROGRAM
JP2013506896A (en) * 2009-10-02 2013-02-28 レゴ エー/エス Shape optimization based on connectivity for real-time rendering
JP2014096111A (en) * 2012-11-12 2014-05-22 Veldt Inc Three-dimensional data generation system
JP6978141B1 (en) * 2021-08-18 2021-12-08 株式会社G−ant How to generate a blueprint for a block object

Also Published As

Publication number Publication date
JP7122583B1 (en) 2022-08-22
JP2023103905A (en) 2023-07-27

Similar Documents

Publication Publication Date Title
JP6978141B1 (en) How to generate a blueprint for a block object
JP5898756B1 (en) SYSTEM, PROGRAM, AND METHOD FOR OPERATING SCREEN BY LINKING DISPLAY AND MULTIPLE CONTROLLERS CONNECTED BY NETWORK
JP7682545B2 (en) How to output the blueprint of a block object
JP7219997B1 (en) How to output blueprints of block objects
JP7122583B1 (en) How to generate blueprints for block objects
JP2014085818A (en) Program, information processing device, information processing method, and information processing system
JP2019020849A (en) Server apparatus, electronic content management system, and control method
CN112346579A (en) Pointing and interaction control device for large-scale desktop model
JP7241441B1 (en) How to output blueprints of block objects
KR102368953B1 (en) Method and system for providing virtual reality space
CN105144220A (en) Product configuration based on constraints
JP7470466B1 (en) How to generate blueprints for block objects
EP3285143A1 (en) Ar/vr device virtualisation
KR102309243B1 (en) Method, system, and computer program for sharing content to chat room in picture-in-picture mode
CN105917320B (en) Mobile electronic device collaboration system
US20250104374A1 (en) Information processing system, method of information processing system, information processing apparatus, and storage medium
JP7420420B1 (en) How to output the blueprint of a block object
JP2016127981A (en) System, program, and method for performing screen operation by interlocking display and plural controllers connected through network
JP2005301358A (en) Building design support system, its method, and program
JP2024155705A (en) How to output the blueprint of a block object
Kaufmann et al. 3MF-A Service-Oriented Mobile Multimodal Interaction Framework
CN116368528A (en) Information display method, system, electronic device and computer readable storage medium
CN114816205A (en) System and method for interacting with a desktop model using a mobile device
EP3014387A1 (en) Methods and systems for generating dynamic user interface
Rodríguez et al. A framework for remote 3D interaction with handheld devices: Application to a 3D heritage gallery prototype

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250110

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20250110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250617