JP2019043110A - Modeling object extraction control device, modeling control system, and modeling object extraction control program - Google Patents

Modeling object extraction control device, modeling control system, and modeling object extraction control program Download PDF

Info

Publication number
JP2019043110A
JP2019043110A JP2017171805A JP2017171805A JP2019043110A JP 2019043110 A JP2019043110 A JP 2019043110A JP 2017171805 A JP2017171805 A JP 2017171805A JP 2017171805 A JP2017171805 A JP 2017171805A JP 2019043110 A JP2019043110 A JP 2019043110A
Authority
JP
Japan
Prior art keywords
user
modeling
virtual
control device
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017171805A
Other languages
Japanese (ja)
Inventor
一典 大西
Kazunori Onishi
一典 大西
富田 聡
Satoshi Tomita
聡 富田
洋 萩原
Hiroshi Hagiwara
洋 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017171805A priority Critical patent/JP2019043110A/en
Publication of JP2019043110A publication Critical patent/JP2019043110A/en
Pending legal-status Critical Current

Links

Abstract

To perform molding based on the information about the emotion during molding in the virtual space for each user in the process of molding by sharing the virtual space with a plurality of people.SOLUTION: A biological information analysis unit 74 acquires the biological information of each user 24 from a virtual ceramic control device 16 managed by each user 24 and analyzes the biological information to extract feature points, and store the timeline information (feature point extraction time) (synchronization information). When the pottery work is completed, the timeline information (synchronization information) stored in a timeline information storage unit 78 for each user 24 is selected. When synchronization information is selected by a selection unit 80, three-dimensional molding information of a time coincident with the selected synchronization information (timeline information) is fetched from the virtual ceramic control device 16 and sent out to a three-dimensional molding control device 44. In addition, when the line of sight of any user 24 is concentrated on a specific part in virtual ceramic art, the specific part is regarded as a target of feature points, and three-dimensional molding may be made only for the specific part.SELECTED DRAWING: Figure 5

Description

本発明は、造形対象抽出制御装置、造形制御システム、造形対象抽出制御プログラムに関する。   The present invention relates to a formation target extraction control device, a formation control system, and a formation target extraction control program.

特許文献1には、頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、共有している映像中の仮想物体を機器の表示画面上で容易かつ正確に指定することが記載されている。   According to Patent Document 1, when a video of a mixed reality space viewed by a user wearing a head-mounted display device is displayed on another device and shared, another virtual image in the shared video is displayed. It is described that the object is specified easily and accurately on the display screen of the device.

特許文献2には、二次元表示画面から操作者側に手前に突出した物体の三次元立体視表示を行い、操作者は、模擬加工工具を用いて、その立体視画像に接触又は侵入させ、この模擬加工工具の位置などを検出して、立体視表示されている画像の接触又は侵入して部分を変形し、加工後の画像に補正して表示することが記載されている。   In Patent Document 2, a three-dimensional stereoscopic display of an object that protrudes to the operator side from the two-dimensional display screen is performed, and the operator contacts or intrudes the stereoscopic image using a simulated processing tool, It is described that the position or the like of this simulated processing tool is detected, and a portion is deformed by touching or entering a stereoscopically displayed image, and the image is corrected and displayed on the processed image.

特許文献3には、操作制御される仮想空間における仮想物体を仮想手で把持した場合等の触覚及び力覚を、操作者に適正に提示することが記載されている。   Patent Document 3 describes that an operator is appropriately presented with a sense of touch and a sense of force such as when a virtual object in a virtual space to be operation-controlled is held by a virtual hand.

特許文献4には、三次元位置情報を用いたゲームを実行するゲームシステムであり、陶芸ゲームプログラムについての記載がある(特に、特許文献2の請求項14参照)。   Patent Document 4 is a game system for executing a game using three-dimensional position information, and describes a pottery game program (in particular, refer to claim 14 of Patent Document 2).

特開2016−224810号公報JP, 2016-224810, A 特開平10−020914号公報JP 10-020914 A 特開2016−24707号公報JP, 2016-24707, A 特開2011−83461号公報JP 2011-83461 A

例えば、仮想陶芸において、複数人で仮想空間を共有して造形することはできるが、造形途中に参加者個別に、気になった造形物を遡って造形することはできない。また、遡る時期を特定する情報がない。   For example, in virtual pottery, although a virtual space can be shared and shaped by a plurality of people, it is not possible to trace back a shaped object that bothers you individually while modeling. Also, there is no information to identify the time to go back.

本発明は、複数人で仮想空間を共有して造形する過程の、使用者毎の仮想空間での造形中の感情に関する情報に基づいて造形することができる造形対象抽出制御装置、造形制御システム、造形対象抽出制御プログラムを得ることが目的である。   The present invention is a modeling target extraction control device capable of modeling based on information on emotion during modeling in a virtual space for each user in the process of modeling by sharing a virtual space by a plurality of people, a modeling control system, The object is to obtain a shaping target extraction control program.

請求項1に記載の発明は、通信回線網を介して、他の使用者と共有し得る三次元仮想現実空間を構築する仮想造形制御装置から、共同で造形物を仮想造形している期間中の特定の造形物の画像データを、使用者毎に抽出して、各々の使用者が管理する三次元造形装置へ提供する造形制御手段を有する造形対象抽出制御装置である。   The invention according to claim 1 is a period during which a modeling object is jointly modeled from a virtual modeling control device that constructs a three-dimensional virtual reality space that can be shared with other users via a communication network. It is a formation object extraction control device which has a form control means which extracts the image data of the specific three-dimensional object of each for every user, and provides it to the three-dimensional formation apparatus which each user manages.

請求項2に記載の発明は、通信回線網を介して、他の使用者と共有し得る三次元仮想現実空間を構築する仮想造形制御装置から、共同で造形物を仮想造形している期間中に各々の使用者から得た生体情報を取得する取得手段と、前記取得手段で取得した生体情報において特徴的な時期を抽出し、抽出した時期に仮想造形している造形物の画像データを三次元造形候補として記憶手段に記憶することを実行する制御手段と、前記記憶手段に記憶された画像データの中から、使用者毎の特徴的な時期に対応する画像データを読み出して、各々の使用者が管理する三次元造形装置へ提供する提供手段と、を有する造形対象抽出制御装置である。   The invention according to claim 2 is a period during which a modeling object is jointly modeled from a virtual modeling control device that constructs a three-dimensional virtual reality space that can be shared with other users via a communication network. Acquisition means for acquiring biological information obtained from each user, and a characteristic time of the biological information acquired by the acquisition means, and extracting image data of a three-dimensional image of a virtual object at the extracted time Image data corresponding to the characteristic time for each user is read out from the control means that executes storing in the storage means as the original modeling candidate, and the image data stored in the storage means, and each use And a provision means for providing to a three-dimensional shaping apparatus managed by a person.

請求項3に記載の発明は、前記請求項2に記載の発明において、前記取得手段が、前記使用者の姿勢情報を取得する。   In the invention according to a third aspect, in the invention according to the second aspect, the acquisition means acquires posture information of the user.

請求項4に記載の発明は、前記請求項2又は請求項3記載の発明において、前記提供手段が、前記記憶手段に記憶された前記造形物の一部に相当する画像データを選択して提供する。   In the invention according to a fourth aspect, in the invention according to the second or third aspect, the providing means selects and provides image data corresponding to a part of the shaped object stored in the storage means. Do.

請求項5に記載の発明は、前記請求項2に記載の発明において、前記生体情報とは別に、使用者が造形中に指定した時期の画像データを抽出し、記憶する。   The invention according to claim 5 extracts and stores, in the invention according to claim 2, image data of a time designated by the user during modeling separately from the biological information.

請求項6に記載の発明は、前記請求項1〜請求項5の何れか1項記載の発明において、前記仮想造形制御装置が、前記使用者が装着可能であり、前記造形物の画像が、当該造形物を造形している使用者の手の画像の動きに応じて変形していく動画像を表示する表示装置、及び、生体情報を検出する生体情報検出手段を備えたヘッドセットインターフェイスと、前記表示装置に表示される動画像に伴って、使用者の手に、力覚及び触覚を提示する力触覚提示装置と、
を有している。
The invention according to a sixth aspect is the invention according to any one of the first to fifth aspects, wherein the virtual shaping control device can be worn by the user, and the image of the shaped object is A display device for displaying a moving image which is deformed according to the movement of the image of the user's hand forming the shaped object, and a headset interface comprising biological information detection means for detecting biological information; A haptic sense presentation device for presenting haptic and tactile senses to the user's hand in accordance with a moving image displayed on the display device;
have.

請求項7に記載の発明は、通信回線網を介して、他の使用者と共有し得る三次元仮想現実空間を構築する仮想造形制御装置と、前記仮想造形制御装置から、共同で造形物を仮想造形している期間中の特定の造形物の画像データを抽出する造形対象抽出制御装置と、抽出された画像データの提供を受けて、三次元造形物を造形する三次元造形装置と、を有する造形制御システムである。   The invention according to a seventh aspect of the present invention jointly comprises a virtual modeling control device for constructing a three-dimensional virtual reality space that can be shared with other users via a communication network, and the virtual modeling control device jointly A modeling target extraction control device for extracting image data of a specific modeling object during a virtual modeling period, and a three-dimensional modeling apparatus for modeling a three-dimensional modeling object in response to provision of the extracted image data; It is a modeling control system which it has.

請求項8に記載の発明は、請求項7に記載の発明において、前記造形対象抽出制御装置が、前記仮想造形制御装置から仮想造形中における各々の使用者から、共同で造形物を仮想造形している期間中に、各々の使用者から得た生体情報を取得する取得手段と、前記取得手段で取得した生体情報において特徴的な時期を抽出し、抽出した時期に仮想造形している造形物の画像データを三次元造形候補として記憶する記憶手段と、前記記憶手段に記憶された画像データの中から、使用者毎の特徴的な時期に対応する画像データを読み出して、各々の使用者が管理する前記三次元造形装置へ提供する提供手段と、を備える。   In the invention according to claim 8, according to the invention according to claim 7, the shaping target extraction control device performs virtual shaping of a shaped object jointly from each user during virtual shaping from the virtual shaping control device. An acquisition means for acquiring biological information obtained from each user during a period of time, and a characteristic thing extracted in the biological information acquired by the acquisition means, and a modeled object being virtually shaped at the extracted time The image data corresponding to the characteristic time for each user is read out from the storage means for storing the image data of 3D as a three-dimensional modeling candidate, and the image data stored in the storage means, and each user Providing means for providing the three-dimensional modeling apparatus to be managed.

請求項9に記載の発明は、請求項8に記載の発明において、前記生体情報とは別に、使用者が造形中に指定した時期の画像データを抽出し、記憶する。   In the invention according to claim 9, in the invention according to claim 8, separately from the biological information, image data of a time designated by the user during modeling is extracted and stored.

請求項10に記載の発明は、前記請求項7〜請求項9の何れか1項記載の発明において、前記仮想造形制御装置が、前記使用者が装着可能であり、前記造形物の画像が、当該造形物を造形している使用者の手の画像の動きに応じて変形していく動画像を表示する表示装置、及び、生体情報を検出する生体情報検出手段を備えたヘッドセットインターフェイスと、前記表示装置に表示される動画像に伴って、使用者の手に、力覚及び触覚を提示する力触覚提示装置と、を有する。   The invention according to a tenth aspect is the invention according to any one of the seventh to the ninth aspects, wherein the virtual shaping control device can be worn by the user, and the image of the shaped object is A display device for displaying a moving image which is deformed according to the movement of the image of the user's hand forming the shaped object, and a headset interface comprising biological information detection means for detecting biological information; And a haptic display device for presenting haptics and haptics on the user's hand in accordance with the moving image displayed on the display device.

請求項11に記載の発明は、コンピュータを請求項1〜請求項6の何れか1項記載の造形対象抽出制御装置として実行させる造形対象抽出制御プログラムである。   The invention according to claim 11 is a shaping object extraction control program which causes a computer to be executed as the shaping object extraction control device according to any one of claims 1 to 6.

請求項1に記載の発明によれば、複数人で仮想空間を共有して造形する過程の、使用者毎の仮想空間での造形中の感情に関する情報に基づいて造形することができる。   According to the first aspect of the present invention, modeling can be performed based on information on emotions during modeling in the virtual space for each user in the process of modeling by sharing a virtual space among a plurality of people.

請求項2に記載の発明によれば、共同作業行程の中で、それぞれ個別に選択した造形物を造形することができる。   According to the second aspect of the present invention, it is possible to model the individually selected shaped objects in the joint work process.

請求項3に記載の発明によれば、使用者の視線を特徴的な時期の抽出に利用することができる。   According to the third aspect of the present invention, the line of sight of the user can be used to extract a characteristic time.

請求項4に記載の発明によれば、仮想陶芸対象の一部を選択して造形することができる。   According to the fourth aspect of the present invention, a part of the virtual ceramic object can be selected and shaped.

請求項5に記載の発明によれば、造形者自ら仮想陶芸途中の造形を希望することができる。   According to the fifth aspect of the present invention, the shaper can desire the formation in the middle of virtual pottery by himself.

請求項6に記載の発明によれば、仮想陶芸空間を確立することができる。   According to the sixth aspect of the present invention, a virtual ceramic space can be established.

請求項7に記載の発明によれば、複数人で仮想空間を共有して造形する過程の、使用者毎の仮想空間での造形中の感情に関する情報に基づいて造形することができる。   According to the seventh aspect of the present invention, modeling can be performed based on information on emotion during modeling in the virtual space for each user in the process of modeling by sharing a virtual space among a plurality of people.

請求項8に記載の発明によれば、共同作業行程の中で、それぞれ個別に選択した造形物を造形することができる。   According to the eighth aspect of the present invention, it is possible to model the individually selected shaped objects in the joint work process.

請求項9に記載の発明によれば、造形者自ら仮想陶芸途中の造形を希望することができる。   According to the invention as set forth in claim 9, the shaper can desire the formation in the middle of the virtual ceramic work by himself.

請求項10に記載の発明によれば、仮想陶芸空間を確立することができる。   According to the invention of claim 10, a virtual ceramic space can be established.

請求項11に記載の発明によれば、複数人で仮想空間を共有して造形する過程の、使用者毎の仮想陶芸中の感情に関する情報に基づいて造形することができる。   According to the eleventh aspect of the present invention, modeling can be performed based on the information on the emotion during virtual pottery of each user in the process of modeling by sharing a virtual space among a plurality of people.

本実施の形態に係る造形対象抽出制御装置を含む仮想陶芸を実行するための造形システムの概略図である。It is a schematic diagram of a modeling system for performing virtual ceramics, including a modeling target extraction control device according to the present embodiment. 本実施の形態に係る陶芸用UIの構成を示す概略図である。It is the schematic which shows the structure of UI for ceramics based on this Embodiment. 本実施の形態に係り、各使用者が装着するヘッドセットの表示装置で表示される仮想陶芸空間の画像の正面図である。FIG. 21 is a front view of an image of a virtual ceramic space displayed on the display device of the headset worn by each user according to the present embodiment. (A)〜(G)は本実施の形態に適用可能な三次元造形装置の概略図である。(A)-(G) are the schematic of the three-dimensional shaping apparatus applicable to this Embodiment. 本実施の形態に係る造形対象抽出制御装置において実行される、使用者の特徴点抽出制御、並びに、抽出した特徴点に基づく仮想陶芸実行期間中の三次元造形物の選択制御のためのブロック図である。A block diagram for user feature point extraction control and selection control of a three-dimensional object during a virtual ceramic work execution period based on the extracted feature points, which is executed in the formation target extraction control device according to the present embodiment It is. 本実施の形態に係る仮想陶芸のタイムラインに沿った三次元造形物の変形遷移状態と使用者毎の生体情報との関係を示すタイミングチャートである。It is a timing chart which shows the relation between the deformation transition state of the three-dimensional structure and the biological information for each user along the timeline of the virtual ceramic art according to the present embodiment. 本実施の形態に係る造形対象抽出制御装置において実行される、使用者の特徴点抽出制御、並びに、抽出した特徴点に基づく仮想陶芸実行期間中の三次元造形物の選択制御の流れを示すフローチャートである。A flowchart showing a flow of user feature point extraction control executed in the formation target extraction control device according to the present embodiment, and selection control of a three-dimensional object during a virtual ceramic work execution period based on the extracted feature points It is.

図1は、本実施の形態に係る造形対象抽出制御装置10を含む仮想陶芸を実行するための造形システムの概略図である。   FIG. 1 is a schematic view of a modeling system for performing virtual ceramic art including a modeling target extraction control device 10 according to the present embodiment.

造形対象抽出制御装置10は、マイクロコンピュータ12を有しており、マイクロコンピュータ12は、CPU12A、RAM12B、ROM12C、入出力ポート12D(I/O12D)、及びこれらを接続するデータバスやコントロールバス等のバス12Eを備えている。   The object-to-be-modeled extraction control device 10 has a microcomputer 12, and the microcomputer 12 includes a CPU 12A, a RAM 12B, a ROM 12C, an input / output port 12D (I / O 12D), and a data bus or control bus connecting these. It has a bus 12E.

I/O12Dには、大規模記録媒体としてのハードディスク14が接続されている。ハードディスク14は、仮想陶芸制御装置16(後述)で生成された三次元造形情報を一時的に格納する。   A hard disk 14 as a large scale recording medium is connected to the I / O 12D. The hard disk 14 temporarily stores three-dimensional modeling information generated by the virtual ceramic-art control device 16 (described later).

ROM12Cには、造形対象物抽出制御のためのプログラムが記録されており、造形対象抽出制御装置10が起動すると、ROM12Cから当該プログラムが読み出され、CPU12Aによって実行される。なお、造形対象抽出制御プログラムは、ROM12Cの他、ハードディスク14や他の記録媒体に記録しておいてもよい。   A program for forming object extraction control is recorded in the ROM 12C, and when the forming object extraction control device 10 is activated, the program is read from the ROM 12C and executed by the CPU 12A. It should be noted that the modeling target extraction control program may be recorded on the hard disk 14 or another recording medium other than the ROM 12C.

(陶芸用UI)
また、I/O12Dには、ネットワークI/F17を介して通信回線網19に接続されている。通信回線網19には、仮想陶芸の仮想空間を共有する使用者24が管理する複数の仮想陶芸制御装置16が接続されている。各使用者24が管理する仮想陶芸制御装置16は基本的に同一構成であるため、以下では、1つの仮想陶芸制御装置16を例にとり説明する。「基本的に同一」とは外観形状や、ソフトウェアのバージョン又はエディションが異なっていても、基本動作制御(プラットフォーム)が同一であることをいい、以下の動作制御が実行可能であればよい。
(UI for pottery)
Further, the I / O 12D is connected to the communication network 19 via the network I / F 17. Connected to the communication network 19 are a plurality of virtual ceramic art control devices 16 managed by a user 24 who shares a virtual ceramic virtual space. The virtual ceramic-art control devices 16 managed by the respective users 24 basically have the same configuration, and therefore, in the following, one virtual ceramic-art control system 16 will be described as an example. "Basically the same" means that the basic operation control (platform) is the same even if the appearance shape and the software version or edition are different, as long as the following operation control can be performed.

仮想陶芸制御装置16には、陶芸用UI18が接続されている。陶芸用UI18は、ヘッドセット20と力触覚提示装置22とを備えている。陶芸用UI18は、所謂仮想陶芸の実行に際し、利用者の手の動きに合わせて、力触覚を伝える機能を有している。   A pottery UI 18 is connected to the virtual pottery controller 16. The pottery UI 18 includes a headset 20 and a force tactile presentation device 22. The pottery UI 18 has a function of transmitting force tactile sense according to the movement of the user's hand when performing so-called virtual pottery.

図2には、陶芸用UI18を使用者24が装着した装着例が示されている。   FIG. 2 shows an example of wearing the ceramic UI 18 by the user 24.

ヘッドセット20は、使用者24に対して視覚を通じて情報を伝達するためのゴーグル26と、使用者24に対して聴覚を通じて情報を伝達するためのヘッドホン28と、ゴーグル26とヘッドホン28とを使用者24の頭部に装着するためのベルトユニット30と、を備える。   The headset 20 uses goggles 26 for transmitting information to the user 24 through vision, headphones 28 for transmitting information to the user 24 through hearing, and users of the goggles 26 and the headphones 28. And 24 a belt unit 30 for mounting on the head.

ゴーグル26は表示装置26Aを備えており、仮想陶芸制御装置16の制御により、表示装置26Aに陶芸用の仮想空間を表示する。   The goggles 26 include a display device 26A, and under the control of the virtual ceramic control device 16, the display device 26A displays a ceramic virtual space.

また、ヘッドホン28はスピーカ28Aを備えており、仮想陶芸制御装置16の制御により、仮想空間上での陶芸作業中の音声を出力する。   In addition, the headphone 28 includes a speaker 28A, and outputs the sound during the pottery work on the virtual space under the control of the virtual pottery controller 16.

ベルトユニット30には、生体情報センサ32が取り付けられている。生体情報センサ32は、使用者の心拍数、血圧、体温、発汗量、及び使用者24の視線の軌跡情報等を含む生体情報を検出する機能を有している。生体情報センサ32は、単数に限らず複数個取り付けてもよく、取り付け位置もベルトユニット30に限定されず、使用者24の身体の適宜箇所に取り付けてもよい。視線の軌跡情報とは、例えば、ドライブシミュレータ等で周知であり、使用者24の視線を表示装置26Aに表示される画像の座標と同期させることで、それぞれの使用者24が仮想陶芸作業中にどこを見ているかを認識することが可能である。   A biological information sensor 32 is attached to the belt unit 30. The biological information sensor 32 has a function of detecting biological information including the user's heart rate, blood pressure, body temperature, amount of sweating, locus information of the line of sight of the user 24, and the like. The living body information sensor 32 may be attached not only to a single one but also to a plurality of attachment points. The attachment position is not limited to the belt unit 30, and may be attached to an appropriate place of the user 24's body. The locus information of the line of sight is known, for example, in a drive simulator etc., and each user 24 is engaged in virtual ceramic work by synchronizing the line of sight of the user 24 with the coordinates of the image displayed on the display device 26A. It is possible to recognize where you are looking.

特に、本実施の形態では、複数の使用者24が単一の仮想陶芸対象を変形させているため、他人が変形させている箇所を見ているとは限らず、次に自身が変形させようとする部位を見る場合がある。例えば、他人が、コーヒーカップの縁の形状を変形させているときに、把持部(持ち手)を見ている場合がある。   In particular, in the present embodiment, since a plurality of users 24 deform a single virtual ceramic object, the user is not limited to looking at a portion being deformed by another person, and the user may be deformed next. You may see the part you want to For example, others may be looking at the grip (hand) while deforming the shape of the edge of the coffee cup.

生体情報センサ32で検出した信号は、仮想陶芸制御装置16を介して、造形対象抽出制御装置10へ送出されて解析されることで、例えば、使用者が刺激を受けた特徴点を抽出するためのファクタとして利用されるようになっている。なお、刺激を受けるとは、仮想空間に表示される画像(自身が仮想空間で行った陶芸経緯画像)の中で、生体情報の信号に変化があることを言い、特徴点の抽出とは、当該信号の変化が予め定めたしきい値を超えたことをいう。   The signal detected by the biological information sensor 32 is sent to the modeling target extraction control device 10 via the virtual ceramic art control device 16 and analyzed, for example, to extract a feature point stimulated by the user. Is to be used as a factor of In addition, to receive stimulation means that the signal of the biological information is changed in the image displayed in the virtual space (the ceramic art process image performed in the virtual space), and the extraction of the feature point is It means that the change of the signal has exceeded a predetermined threshold.

一方、陶芸用UI18の力触覚提示装置22は、使用者の手(ここでは、両手)に装着するための支持体としてグローブ34を備えている。   On the other hand, the force tactile sense presentation device 22 of the ceramic UI 18 is provided with a glove 34 as a support for mounting on the user's hand (here, both hands).

グローブ34には、複数の触覚提示用アクチュエータ36と、複数の力覚提示用アクチュエータ38と、が取り付けられている。触覚提示用アクチュエータ36は、仮想陶芸制御装置16の制御により、仮想陶芸で陶芸作業中の資材(仮想粘土)に触れた感触を使用者24の手に伝達する。また、力覚提示用アクチュエータ38は、仮想陶芸制御装置16の制御により、仮想陶芸で陶芸作業中の資材を変形させたときの力加減を使用者24の手に伝達する。   A plurality of haptic presentation actuators 36 and a plurality of haptic presentation actuators 38 are attached to the glove 34. The tactile sense providing actuator 36 transmits the feel of touching the material (virtual clay) in the pottery work with virtual pottery to the hand of the user 24 under the control of the virtual pottery controller 16. Further, the force sense presentation actuator 38 transmits the degree of force when the material in the pottery work is deformed with virtual pottery to the hand of the user 24 under the control of the virtual pottery controller 16.

また、グローブ34には、複数のモーションキャプチャ40が取り付けられており、使用者24の手の動きを検出し、当該検出信号は、仮想陶芸制御装置16へ送出されるようになっている。   Also, a plurality of motion captures 40 are attached to the glove 34 to detect the movement of the hand of the user 24, and the detection signal is sent to the virtual ceramic control device 16.

仮想陶芸制御装置16では、使用者24の手の動きと、仮想陶芸区間画像とを同期させることで、表示装置26Aに使用者24の手画像(仮想手画像)を表示させることで、使用者24は、視覚、聴覚、触覚を通じて仮想陶芸を体感することが可能となる(図3参照)。なお、本実施の形態では、視覚、聴覚、触覚を通じて仮想陶芸を体感させているが、他の五感(味覚、嗅覚)を取り入れることを否定するものではない。   The virtual ceramic-art control device 16 causes the display device 26A to display the hand image (virtual hand image) of the user 24 by synchronizing the movement of the hand of the user 24 with the virtual ceramic-art area image, thereby the user. 24 can experience virtual ceramic art through sight, hearing and touch (see FIG. 3). In the present embodiment, virtual ceramic art is experienced through sight, hearing, and touch, but it does not deny that other five senses (taste, smell) are taken in.

(三次元造形装置)
図1に示される如く、I/O12Dには、I/F42を介して三次元造形制御装置44が接続されている。三次元造形制御装置44には、三次元造形装置46が接続されている。三次元造形制御装置44では、前記仮想陶芸制御装置16で生成される三次元造形情報に基づいて、三次元造形装置46を制御して、実物の三次元造形物を造形する。なお、図1では、三次元造形制御装置44には、1個(1種類)の三次元造形装置46が接続された例を示しているが、複数個(複数種類)の三次元造形装置46を一括制御するようにしてもよい。例えば、異なる造形方式で造形する複数種類の三次元造形装置46を一括管理し、用途に合った三次元造形装置46を選択して、造形を指示するようにしてもよい。
(3D modeling device)
As shown in FIG. 1, a three-dimensional modeling control device 44 is connected to the I / O 12 D via an I / F 42. A three-dimensional modeling apparatus 46 is connected to the three-dimensional modeling control apparatus 44. In the three-dimensional formation control device 44, the three-dimensional formation device 46 is controlled based on the three-dimensional formation information generated by the virtual ceramic object control device 16 to form a real three-dimensional object. Although FIG. 1 shows an example in which one (one type) three-dimensional modeling apparatus 46 is connected to the three-dimensional modeling control apparatus 44, a plurality (a plurality of types) of three-dimensional modeling apparatus 46 is shown. May be controlled collectively. For example, plural types of three-dimensional modeling devices 46 modeled by different modeling methods may be collectively managed, and the three-dimensional modeling device 46 suitable for the application may be selected to instruct modeling.

造形方式としては、結合剤噴射方式、指向性エネルギー堆積方式、材料押出方式、材料噴射方式、粉末床溶融結合方式、シート積層方式、及び液槽光重合方式等がある。   Examples of the forming method include a binder injection method, a directional energy deposition method, a material extrusion method, a material injection method, a powder bed fusion bonding method, a sheet lamination method, a liquid tank photopolymerization method and the like.

図4(A)〜(G)に、造形方式の種類及び機能と、それぞれの造形方式に適合する材料の関係の一例を示す。
(1)結合剤噴射方式
図4(A)に示される如く、結合剤噴射方式の三次元造形装置46Aは、液状の結合剤50を粉末床52に噴射して選択的に固化させる方式である。材料例として、石膏、セラミックス、砂、カルシウム、プラスティックが挙げられる。
(2)指向性エネルギー堆積方式
図4(B)に示される如く、指向性エネルギー堆積方式の三次元造形装置46Bは、材料54を供給しつつ、ビーム56等を集中させることによって熱の発生位置を制御し、材料54を選択的に溶融、結合させる方式である。材料例として、金属が挙げられる。
(3)材料押出方式
図4(C)に示される如く、材料押出方式の三次元造形装置46Cは、流動性のある材料58をノズル60から押し出し、堆積させると同時に固化させる方式である。材料例として、ABS(アクリニトリル・ブタジエン・スチレン樹脂)、PLA(ポリ乳酸)、ナイロン12、PC(ポリカーボネイト)、PPSF(ポリフェニルスルホン)が挙げられる。
(4)材料噴射方式
図4(D)に示される如く、材料噴射方式の三次元造形装置46Dは、材料の液滴62を噴射し、選択的に堆積し固化させる方式である。三次元造形装置46Dは、その代表的なインクジェット法による造形方式である。材料例として、UV硬化樹脂、脂、ワックス、ハンダが挙げられる。
(5)粉末床溶融結合方式
図4(E)に示される如く、粉末床溶融結合方式の三次元造形装置46Eは、粉末を敷いたある領域64をレーザ66から照射される熱エネルギーによって選択的に溶融結合させる方式である。材料例として、エンジニアリングプラスティック、ナイロン、金属が挙げられる。
(6)シート積層方式
図4(F)に示される如く、シート積層方式の三次元造形装置46Fは、シート状の材料68を接着させる方式である。材料例として、紙、樹脂シート、アルミシートワックス、ハンダが挙げられる。
(7)液槽光重合方式
図4(G)に示される如く、液槽光重合方式の三次元造形装置46Gは、タンク70に貯められる液状の光硬化性樹脂72を光重合によって選択的に硬化させる方式である。材料例として、UV硬化樹脂が挙げられる。
FIGS. 4A to 4G show an example of the relationship between the type and function of the forming method and the material compatible with each forming method.
(1) Binder Injection Method As shown in FIG. 4 (A), the three-dimensional modeling apparatus 46A of the binder injection method is a method in which the liquid binder 50 is injected onto the powder bed 52 and selectively solidified. . Examples of materials include gypsum, ceramics, sand, calcium and plastics.
(2) Directional energy deposition method As shown in FIG. 4 (B), the three-dimensional modeling apparatus 46B of the directional energy deposition method generates heat by concentrating the beam 56 and the like while supplying the material 54. Is controlled to selectively melt and bond the material 54. Examples of materials include metals.
(3) Material Extrusion Method As shown in FIG. 4C, the material extrusion method three-dimensional modeling apparatus 46C is a method of extruding the flowable material 58 from the nozzle 60 and depositing and solidifying it at the same time. Examples of the material include ABS (acrylonitrile butadiene styrene resin), PLA (polylactic acid), nylon 12, PC (polycarbonate), and PPSF (polyphenylsulfone).
(4) Material Jet Method As shown in FIG. 4D, the material jet method three-dimensional modeling apparatus 46D is a method of jetting the droplets 62 of the material to selectively deposit and solidify. The three-dimensional formation device 46D is a formation method based on the representative inkjet method. Examples of materials include UV curable resins, fats, waxes and solders.
(5) Powder Bed Melt Bonding Method As shown in FIG. 4 (E), the powder bed melt bonding method three-dimensional shaping apparatus 46E selectively uses a thermal energy irradiated from a laser 66 to a region 64 where powder is spread. Is a method of melt bonding to Examples of materials include engineering plastics, nylon and metals.
(6) Sheet Laminating Method As shown in FIG. 4F, the sheet laminating method three-dimensional modeling apparatus 46F is a method in which a sheet-like material 68 is adhered. Examples of materials include paper, resin sheet, aluminum sheet wax and solder.
(7) Liquid Tank Photopolymerization System As shown in FIG. 4 (G), the liquid tank photopolymerization system three-dimensional modeling apparatus 46G selectively uses liquid photocurable resin 72 stored in the tank 70 by photopolymerization. It is a method of curing. UV curable resin is mentioned as an example of material.

なお、上記(1)〜(7)に示した造形方式の異なる7種類の三次元造形装置46A〜Gは、選択的に、造形メーカーが所有する。また、図4では、上記(1)〜(7)に示す造形方式を示したが、この(1)〜(7)とは異なる造形方式の三次元造形装置であってもよい。   In addition, seven types of three-dimensional modeling apparatuses 46A-G from which the modeling method shown to said (1)-(7) differs are selectively owned by a modeling maker. Moreover, although the modeling method shown to said (1)-(7) was shown in FIG. 4, the three-dimensional modeling apparatus of the modeling method different from this (1)-(7) may be sufficient.

(FAVフォーマットの概略)
三次元造形物を造形するための三次元造形情報(造形フォーマットデータ)は、FAV(fabricatable voxel)フォーマットで保存されたボクセルデータが好ましい。
(Outline of FAV format)
The three-dimensional modeling information (modeling format data) for modeling the three-dimensional model is preferably voxel data stored in a fabricable voxel (FAV) format.

FAVフォーマットでは、三次元モデルデータの外部形状だけでなく、内部構造、使用する材料、接合強度等の様々な属性を保持する。三次元モデルデータの外観及び内側を問わず、デザイナーが思った通りに、隅々まで、徹底的に、精密かつ緻密にデザイン可能であり、それをデータとして保存し得ることを担保している。   In the FAV format, not only the external shape of the three-dimensional model data, but also various attributes such as the internal structure, the material to be used, and the bonding strength are held. Regardless of the appearance and inside of the three-dimensional model data, it is possible to design thoroughly and precisely, precisely and precisely to every corner as the designer thinks, ensuring that it can be stored as data.

FAVフォーマットは、ボクセルデータをベースに構成されている。   The FAV format is configured based on voxel data.

ボクセルとは三次元的な画素値である。二次元的な画素値であるピクセルを平面的に配置することで、画像を形成するように、三次元的な画素値であるボクセルを立体的に配置することで、物体を形成する。   A voxel is a three-dimensional pixel value. By arranging pixels which are two-dimensional pixel values in a plane, an object is formed by arranging voxels which are three-dimensional pixel values in a three-dimensional manner so as to form an image.

すなわち、FAVフォーマットは以下の条件を備えた三次元モデルデータである。   That is, the FAV format is three-dimensional model data having the following conditions.

(条件1) 三次元モデルデータの外部及び内部を問わず、形状、材料、色、接合強度等といったものづくりに必要な情報が立体的な位置ごとに明確に定義されていること。   (Condition 1) Information necessary for manufacturing, such as shape, material, color, bonding strength, etc. must be clearly defined at each three-dimensional position regardless of inside or outside of the three-dimensional model data.

(条件2) 三次元モデルデータのデザイン(CAD)、解析(CAE)、検査(CAT)を、データ変換することなく統一的、かつ双方向的に行うことができること。   (Condition 2) Design (CAD), analysis (CAE), and inspection (CAT) of three-dimensional model data can be performed uniformly and bi-directionally without data conversion.

FAVフォーマットは、材料の情報を持たせることができるため、造形方式の選定が容易となる。   Since the FAV format can carry information on materials, selection of a forming method becomes easy.

(造形対象抽出制御装置10の機能)
図5は、造形対象抽出制御装置10において実行される、使用者24の特徴点抽出制御、並びに、抽出した特徴点に基づく仮想陶芸実行期間中の三次元造形物の選択制御のためのブロック図が示されている。なお、図5の各ブロックは、造形対象抽出制御装置10の特徴点抽出制御及び選択制御に特化して、機能別に分類したものであり、造形対象抽出制御装置10のハード構成を限定するものではない。
(Function of modeling target extraction control device 10)
FIG. 5 is a block diagram for feature point extraction control of the user 24 and selection control of a three-dimensional shaped object during virtual ceramic work execution period based on the extracted feature points, which is executed in the formation target extraction control device 10 It is shown. Note that each block in FIG. 5 is specialized for feature point extraction control and selection control of the formation target extraction control device 10 and is classified according to function, and in the case of limiting the hardware configuration of the formation target extraction control device 10 Absent.

生体情報解析部74は、各使用者24が管理する仮想陶芸制御装置16から各使用者24の生体情報を取得し、当該使用者24毎に生体情報を解析することで、特徴点(特徴的な時期)を抽出する。   The living body information analysis unit 74 acquires the living body information of each user 24 from the virtual ceramics control device 16 managed by each user 24 and analyzes the living body information for each user 24 to obtain a feature point (characteristic Period of time).

生体情報センサ32で検出した信号を解析されることで、例えば、使用者24が刺激を受けた特徴点を抽出する。   By analyzing the signal detected by the biological information sensor 32, for example, the user 24 extracts a feature point that has been stimulated.

さらに詳しく言えば、生体情報が心拍数、体温、発汗量の場合は何れかがしきい値を超えた時期を特徴点として抽出する。なお、2以上のファクタがしきい値を超えたことを条件に特徴点としてもよい。   More specifically, when the biological information is the heart rate, the body temperature, and the amount of sweating, the time when any one exceeds the threshold is extracted as the feature point. Note that the feature point may be set on the condition that two or more factors exceed the threshold value.

ここで、生体情報が視線の場合は、視線が向けられた位置の継続停止時間がしきい値を超えた場合に特徴点として抽出すると共に、造形対象を、視点を中心とした一部の領域とすることも可能である。すなわち、仮想陶芸がコーヒーカップであり、視点が把持部(持ち手)である場合に、把持部(持ち手)を特徴点の対象とみなすようにしてもよい。   Here, when the biological information is the line of sight, the continuous stop time of the position where the line of sight is directed is extracted as the feature point when the threshold value is exceeded, and the shaping target is a partial area centered on the viewpoint It is also possible. That is, when the virtual ceramic art is a coffee cup and the viewpoint is the grip portion (handle), the grip portion (handle) may be regarded as the target of the feature point.

生体情報解析部74は、タイムライン情報取込部76及びタイムライン情報記憶部78に接続され、特徴点を抽出した時点で抽出信号を送出する。   The biometric information analysis unit 74 is connected to the timeline information taking-in unit 76 and the timeline information storage unit 78, and sends out the extraction signal when the feature point is extracted.

タイムライン情報取込部76は、生体情報解析部74から抽出信号を受けた時点の陶芸作業経過情報(タイムライン情報)を取得して、タイムライン情報記憶部78に送出する。   The timeline information taking-in unit 76 acquires pottery work progress information (timeline information) at the time of receiving the extraction signal from the biological information analysis unit 74, and sends it to the timeline information storage unit 78.

タイムライン情報記憶部78では、生体情報解析部74から抽出信号を受けた時期と同期するタイムライン情報(特徴点抽出時期)を記憶する。以下、抽出した特徴点に同期して記憶されるタイムライン情報を同期情報という。同期情報は1つに限らず、タイムライン情報記憶部78には、陶芸作業期間中に、複数の同期情報が記憶される場合がある。   The timeline information storage unit 78 stores timeline information (feature point extraction timing) synchronized with the timing when the extraction signal is received from the biological information analysis unit 74. Hereinafter, timeline information stored in synchronization with the extracted feature points is referred to as synchronization information. The synchronization information is not limited to one, and a plurality of synchronization information may be stored in the timeline information storage unit 78 during the pottery work period.

一方、仮想陶芸制御装置16からは選択部80へ陶芸作業情報(主として、陶芸開始と陶芸終了の時期、並びに、三次元造形情報)を送出しており、陶芸作業が終了すると、タイムライン情報記憶部78に記憶されたタイムライン情報(同期情報)を選択する。なお、選択は2以上の同期情報が存在する場合を想定しているが(図6(A)の特徴点A、特徴点C、図6(B)の特徴点C、特徴点D、図6(C)特徴点E、特徴点F参照)、1つの同期情報の場合は、当該1つの同期情報が選択されることになる。   On the other hand, the virtual pottery controller 16 sends out pottery operation information (mainly, the start of pottery and the end of pottery, and three-dimensional modeling information) to the selection unit 80, and when the pottery operation is finished, timeline information storage The timeline information (synchronization information) stored in the unit 78 is selected. Although it is assumed that two or more pieces of synchronization information are selected (feature point A in FIG. 6 (A), feature point C, feature point C in FIG. 6 (B), feature point D, FIG. 6). (C) Feature point E, feature point F), and in the case of one synchronization information, the one synchronization information is to be selected.

選択部80での選択は、自動選択及び手動選択の何れであってもよい。自動選択の場合は、例えば、最も生体情報のピーク値が大きい特徴点(図6(A)の特徴点A、図6(B)の特徴点C、図6(C)の特徴点F参照)を選択する。また、手動選択の場合は、図6の特徴点の何れを選択してもよいし、タイムライン上の開始時期からN番目の時期の特徴点、N番目の大きさのピーク値の特徴点等、選択の条件を入力してもよい(Nは正の整数)。   The selection by the selection unit 80 may be either automatic selection or manual selection. In the case of automatic selection, for example, the feature point having the largest peak value of biological information (see feature point A in FIG. 6A, feature point C in FIG. 6B, and feature point F in FIG. 6C). Choose In the case of manual selection, any one of the feature points in FIG. 6 may be selected, a feature point at the Nth time from the start time on the timeline, a feature point at the Nth peak value, etc. , You may enter the condition of selection (N is a positive integer).

選択部80で同期情報が選択されると、仮想陶芸制御装置16から、選択された同期情報(タイムライン情報)と一致する時期の三次元造形情報を取り込み、各使用者24が管理する三次元造形制御装置44へ送出する。   When synchronization information is selected by the selection unit 80, three-dimensional modeling information of a time that coincides with the selected synchronization information (timeline information) is taken in from the virtual ceramic art control device 16, and three-dimensional managed by each user 24 It is sent to the formation control device 44.

三次元造形制御装置44では、三次元造形装置46を制御して、三次元造形を実行する。   The three-dimensional formation control device 44 controls the three-dimensional formation device 46 to execute three-dimensional formation.

以下に本実施の形態の作用を図7のフローチャートに従い説明する。   The operation of the present embodiment will be described below with reference to the flowchart of FIG.

図7は、本実施の形態に係る造形対象抽出制御装置10において実行される、使用者24の特徴点抽出制御、並びに、抽出した特徴点に基づく仮想陶芸実行期間中の三次元造形物の選択制御の流れを示すフローチャートである。   FIG. 7 is the feature point extraction control of the user 24 executed in the shaping target extraction control device 10 according to the present embodiment, and the selection of the three-dimensional shaped object during the virtual ceramic work execution period based on the extracted feature points. It is a flowchart which shows the flow of control.

ステップ100では、仮想陶芸制御装置16において、仮想陶芸が開始されたか否かを判断し、否定判定された場合は、このルーチンは終了する。   In step 100, the virtual ceramic-art control device 16 determines whether virtual ceramic-art has been started, and if a negative determination is made, this routine ends.

また、ステップ100で肯定判定されると、仮想陶芸が開始されたと判断し、ステップ102へ移行して、各使用者に共通のタイムラインの計時を開始する。   If a positive determination is made in step 100, it is determined that virtual ceramic art has been started, and the process proceeds to step 102 to start timing of a common timeline for each user.

仮想陶芸では、使用者24が、陶芸用UI18を装着する。   In the virtual pottery, the user 24 wears the pottery UI 18.

すなわち、使用者24の頭部にはヘッドセット20を装着し、使用者24の手にはグローブ34(力触覚提示装置22)を装着する。   That is, the head set 20 is attached to the head of the user 24, and the glove 34 (force tactile sense presentation device 22) is attached to the hand of the user 24.

ヘッドセット20の表示装置26Aには、仮想陶芸制御装置16の制御により陶芸用の仮想空間を表示される。スピーカ28Aからは、仮想陶芸空間で発せられる音が出力される。   A virtual space for pottery is displayed on the display device 26A of the headset 20 under the control of the virtual ceramic control device 16. The sound emitted in the virtual ceramic space is output from the speaker 28A.

力触覚提示装置22の触覚提示用アクチュエータ36は、仮想陶芸で陶芸作業中の資材(仮想粘土)に触れた感触を使用者24の手に伝達する。   The tactile sense presentation actuator 36 of the force tactile sense presentation device 22 transmits, to the hand of the user 24, the touch of touching the material (virtual clay) in the pottery work with virtual ceramic art.

また、力触覚提示装置22の力覚提示用アクチュエータ38は、仮想陶芸で陶芸作業中の資材を変形させたときの力加減を使用者24の手に伝達する。   Further, the force sense presentation actuator 38 of the force tactile sense presentation device 22 transmits to the hand of the user 24 the amount of force change when the material in the pottery work is deformed by virtual ceramics.

グローブ34に取り付けられたモーションキャプチャ40は、使用者24の手の動きを検出し、当該使用者24の手の動きと、仮想陶芸区間画像とを同期させて表示装置26Aに表示する。   The motion capture 40 attached to the glove 34 detects the movement of the hand of the user 24 and synchronizes the movement of the hand of the user 24 with the virtual ceramic section image and displays it on the display device 26A.

表示装置26Aには、図3に示される如く、仮想陶芸空間と使用者24の動きに合わせた仮想手画像が表示されるため、使用者24は、臨場感を持って仮想陶芸を実行することが可能となる。   As shown in FIG. 3, the virtual ceramic work space and the virtual hand image according to the movement of the user 24 are displayed on the display device 26A, so that the user 24 executes the virtual ceramic work with a sense of presence Is possible.

ここで、本実施の形態のヘッドセット20のベルトユニット30には、生体情報センサ32が取り付けられ、仮想陶芸作業期間中(タイムライン起動中)に、適宜使用者24の生体情報を検出する。   Here, the biological information sensor 32 is attached to the belt unit 30 of the headset 20 of the present embodiment, and the biological information of the user 24 is appropriately detected during the virtual ceramic work period (during activation of the timeline).

生体情報センサ32は、一例として、使用者の心拍数、血圧、体温、発汗量、及び視線等を含む生体情報を検出する。   The biological information sensor 32 detects, for example, biological information including the user's heart rate, blood pressure, body temperature, amount of sweating, and gaze.

図7に示される如く、ステップ102でタイムラインの計時を開始すると、ステップ104へ移行して、生体情報センサ32で検出した各使用者24の生体情報を仮想陶芸制御装置16から取り込み、次いで、ステップ106へ移行して、予め記憶したしきい値を読み出してステップ108へ移行する。ステップ108では、取り込んだ生体情報としきい値とを比較する。   As shown in FIG. 7, when timing of the timeline is started in step 102, the process proceeds to step 104, and the biological information of each user 24 detected by the biological information sensor 32 is fetched from the virtual ceramic control device 16, and then At step 106, the prestored threshold value is read out, and the process goes to step 108. In step 108, the captured biological information is compared with a threshold.

次のステップ110では、ステップ108での比較の結果、特徴点か否かを判断する。本実施の形態では、取り込んだ生体情報がしきい値を超える場合に特徴点とする。   In the next step 110, as a result of the comparison in step 108, it is determined whether or not it is a feature point. In the present embodiment, when the captured biological information exceeds the threshold value, it is regarded as the feature point.

ステップ110で肯定判定された場合は、特徴点であると判断し、ステップ112へ移行して、使用者24毎に現タイムライン情報を特徴点として記憶し(同期情報)、ステップ114へ移行する。また、ステップ110で否定判定された場合は、特徴点ではないと判断し、ステップ114へ移行する。   If an affirmative determination is made in step 110, it is determined that the feature point is present, the process proceeds to step 112, the current timeline information is stored as a feature point for each user 24 (synchronization information), and the process proceeds to step 114 . If a negative determination is made in step 110, it is determined that the feature point is not present, and the process proceeds to step 114.

ステップ114では、仮想陶芸作業が終了したか否かを判断し、否定判定された場合は、生体情報の検出を継続するべく、ステップ104へ移行して、上記工程を繰り返す。   In step 114, it is determined whether or not the virtual ceramic work has been completed. If a negative determination is made, the process proceeds to step 104 to repeat the above-described steps in order to continue detection of the biological information.

また、ステップ114で肯定判定された場合は、仮想陶芸作業が終了したと判断され、ステップ116へ移行して、各使用者24に共通のタイムライン計時を終了し、次いでステップ118へ移行して、特徴点(同期情報)の選択処理を実行する。   Also, if the determination in step 114 is affirmative, it is determined that the virtual ceramic work has been completed, and the process proceeds to step 116 to end the common time-line timing for each user 24 and then proceeds to step 118. And select a feature point (synchronization information).

すなわち、生体情報においてしきい値を超える点(特徴点)は、1つであるとは限らず、複数存在する場合がある。   That is, the number of points (feature points) exceeding the threshold value in the biometric information is not limited to one, and a plurality of points may exist.

例えば、図6(A)に示される如く、使用者Aの場合は、生体情報がしきい値を超える特徴点A及び特徴点Bが存在する。また、図6(B)に示される如く、使用者Bの場合は、生体情報がしきい値を超える特徴点C及び特徴点Dが存在する。さらに、図6(C)に示される如く、使用者Cの場合は、生体情報がしきい値を超える特徴点E及び特徴点Fが存在する。   For example, as shown in FIG. 6A, in the case of the user A, there exist feature points A and B whose biometric information exceeds a threshold. Further, as shown in FIG. 6B, in the case of the user B, there are a feature point C and a feature point D in which the biological information exceeds a threshold. Furthermore, as shown in FIG. 6C, in the case of the user C, there are feature points E and F where the biometric information exceeds the threshold.

そこで、選択部80での自動選択は、例えば、最も生体情報のピーク値が大きい特徴点(図6(A)では特徴点A、図6(B)では特徴点C、図6(C)では特徴点F参照)を選択するようにしてもよい。また、手動選択の場合は、図6の特徴点A〜特徴点Fの内、タイムライン上の開始時期からN番目の時期の特徴点、N番目の大きさのピーク値の特徴点等、選択の条件を入力してもよい(Nは正の整数)。   Therefore, the automatic selection by the selection unit 80 is, for example, the feature point with the largest peak value of biological information (feature point A in FIG. 6A, feature point C in FIG. 6B, and FIG. 6C). Feature point F) may be selected. Also, in the case of manual selection, among the feature points A to F in FIG. 6, the feature point of the Nth time from the start time on the timeline, the feature point of the peak value of the Nth size, etc. You may enter the condition of (N is a positive integer).

次のステップ119では、生体情報の内、視線に基づく領域選択があるか否かを判断する。   In the next step 119, it is determined whether or not there is a region selection based on the sight line in the biological information.

ステップ119で否定判定された場合は、視線に基づく領域選択はないと判断し、ステップ120へ移行する。   If a negative determination is made in step 119, it is determined that there is no area selection based on the line of sight, and the process proceeds to step 120.

次のステップ120では、選択した各使用者24の同期情報と一致する時期の三次元造形情報を取り込み、次いでステップ122へ移行する。   In the next step 120, three-dimensional modeling information of the time coincident with the synchronization information of each of the selected users 24 is captured, and then the process proceeds to step 122.

また、ステップ119で肯定判定された場合は、視線に基づく領域選択があると判断し、ステップ121へ移行する。   In addition, when the determination result in step 119 is affirmative, it is determined that there is area selection based on the line of sight, and the process proceeds to step 121.

視線に基づく領域選択とは、何れかの使用者24の視線が仮想陶芸中の特定の部位に集中している場合に当該特定の部位を特徴点の対象とみなすことをいう。特定の部位が特徴点とされた場合は、三次元造形は、当該特定部位のみとすることが可能である。   The area selection based on the line of sight means that when the line of sight of any one of the users 24 is concentrated on a specific part in the virtual ceramic work, the specific part is regarded as a feature point. When a specific site is regarded as a feature point, three-dimensional modeling can be performed only for the specific site.

例えば、複数の使用者24でコーヒーカップを目的として仮想陶芸している途中において、一人の使用者24が、把持部(持ち手)の部分に興味を持ち、視線を集中させると、当該視線の集中時期が特徴点となり、かつ把持部(持ち手)が造形対象となる。   For example, in the middle of virtual pottering with a plurality of users 24 for the purpose of a coffee cup, when one user 24 is interested in the portion of the grip (hand) and concentrates his gaze, The concentrated time is the feature point, and the grip portion (handle) is the object of modeling.

そこで、ステップ121では、選択した各使用者24の同期情報と一致する時期であり、かつ、仮想陶芸物の一部の三次元造形情報を取り込み、次いでステップ122へ移行する。   Therefore, in step 121, it is time to coincide with the synchronization information of each of the selected users 24, and a part of the three-dimensional modeling information of the virtual ceramic object is fetched, and then the process proceeds to step 122.

ステップ122では、三次元造形制御装置44へ、三次元造形装置46による三次元造形情報に基づく造形を実行するように指示し、このルーチンは終了する。   In step 122, the three-dimensional formation control device 44 is instructed to execute formation based on the three-dimensional formation information by the three-dimensional formation device 46, and this routine ends.

本実施の形態では、仮想の造形を仮想陶芸としたが、陶芸に限るものではない。例えば、金属や合成樹脂等の様々な資材の加工作業を仮想現実空間で実行し、当該加工途中の造形物を三次元造形するようにしてもよい。加工作業としては、家屋やビルの建築模型を製作する仮想現実空間、車両の設計段階の意匠模型を製作する仮想現実空間、プラモデルや造花等の趣味の造形物を組み立てたり製作する仮想現実空間において、製作途中の特徴点を抽出して、造形するようにしてもよい。   In the present embodiment, the virtual modeling is virtual pottery, but it is not limited to the pottery. For example, processing operations of various materials such as metal and synthetic resin may be performed in the virtual reality space, and the three-dimensional object may be formed during the processing. The processing operations include virtual reality space for producing architectural models of houses and buildings, virtual reality space for producing design models at the design stage of vehicles, and virtual reality spaces for assembling and producing sculptures of plastic models, artificial flowers, etc. The feature points in the process of production may be extracted and shaped.

10 造形対象抽出制御装置
12 マイクロコンピュータ
12A CPU
12B RAM
12C ROM
12D 入出力ポート(I/O)
12E バス
14 ハードディスク
16 仮想陶芸制御装置
17 ネットワークI/F
18 陶芸用UI
19 通信回線網
20 ヘッドセット
22 力触覚提示装置
24 使用者
26 ゴーグル
28 ヘッドホン
30 ベルトユニット
26A 表示装置
28A スピーカ
32 生体情報センサ
34 グローブ
36 触覚提示用アクチュエータ
38 力覚提示用アクチュエータ
40 モーションキャプチャ
44 三次元造形制御装置
46 三次元造形装置
50 結合剤
52 粉末床
54 材料
56 ビーム
58 材料
60 ノズル
62 液滴
64 領域
66 レーザ
68 材料
70 タンク
72 光硬化性樹脂
74 生体情報解析部
76 タイムライン情報取込部
78 タイムライン情報記憶部
80 選択部
10 Modeling object extraction control device 12 microcomputer 12A CPU
12B RAM
12C ROM
12D input / output port (I / O)
12E Bus 14 Hard Disk 16 Virtual Ceramics Controller 17 Network I / F
18 Ceramics UI
Reference Signs List 19 communication network 20 headset 22 force tactile sense presentation device 24 user 26 goggles 28 headphone 30 belt unit 26A display device 28A speaker 32 biological information sensor 34 glove 36 tactile sense presentation actuator 38 force sense presentation actuator 40 motion capture 44 three dimensional Shape control device 46 Three-dimensional formation device 50 Binder 52 Powder bed 54 Material 56 Beam 58 Material 60 Nozzle 62 Droplet 64 Area 66 Laser 68 Material 70 Tank 72 Photocurable resin 74 Biological information analysis unit 76 Timeline information acquisition unit 78 timeline information storage unit 80 selection unit

Claims (11)

通信回線網を介して、他の使用者と共有し得る三次元仮想現実空間を構築する仮想造形制御装置から、共同で造形物を仮想造形している期間中の特定の造形物の画像データを、使用者毎に抽出して、各々の使用者が管理する三次元造形装置へ提供する造形制御手段を有する造形対象抽出制御装置。   Image data of a specific object during a period when the object is being virtually formed jointly from a virtual formation control device that constructs a three-dimensional virtual reality space that can be shared with other users via a communication network A shaping target extraction control device having shaping control means for extracting for each user and providing it to a three-dimensional shaping device managed by each user. 通信回線網を介して、他の使用者と共有し得る三次元仮想現実空間を構築する仮想造形制御装置から、共同で造形物を仮想造形している期間中に各々の使用者から得た生体情報を取得する取得手段と、
前記取得手段で取得した生体情報において特徴的な時期を抽出し、抽出した時期に仮想造形している造形物の画像データを三次元造形候補として記憶手段に記憶することを実行する制御手段と、
前記記憶手段に記憶された画像データの中から、使用者毎の特徴的な時期に対応する画像データを読み出して、各々の使用者が管理する三次元造形装置へ提供する提供手段と、
を有する造形対象抽出制御装置。
A living body obtained from each user during a virtual modeling operation of a shaped object jointly from a virtual modeling control device that constructs a three-dimensional virtual reality space that can be shared with other users via a communication network Acquisition means for acquiring information;
A control unit that extracts characteristic time in the biological information acquired by the acquisition unit, and stores image data of a three-dimensional object which is virtually shaped at the extracted time as a three-dimensional formation candidate in the storage unit;
Providing means for reading out image data corresponding to a characteristic time for each user from the image data stored in the storage means, and providing the three-dimensional modeling apparatus managed by each user.
An object forming and extracting control device having:
前記取得手段が、前記使用者の姿勢情報を取得する請求項2記載の造形対象抽出制御装置。   The shaping target extraction control device according to claim 2, wherein the acquisition unit acquires posture information of the user. 前記提供手段が、前記記憶手段に記憶された前記造形物の一部に相当する画像データを選択して提供する請求項2又は請求項3記載の造形対象抽出制御装置。   The shaping target extraction control device according to claim 2 or 3, wherein the providing means selects and provides image data corresponding to a part of the shaped object stored in the storage means. 前記生体情報とは別に、使用者が造形中に指定した時期の画像データを抽出し、記憶する請求項2記載の造形対象抽出制御装置。   The shaping target extraction control device according to claim 2, wherein image data of a time designated by a user during modeling is extracted and stored separately from the biological information. 前記仮想造形制御装置が、
前記使用者が装着可能であり、前記造形物の画像が、当該造形物を造形している使用者の手の画像の動きに応じて変形していく動画像を表示する表示装置、及び、生体情報を検出する生体情報検出手段を備えたヘッドセットインターフェイスと、
前記表示装置に表示される動画像に伴って、使用者の手に、力覚及び触覚を提示する力触覚提示装置と、
を有する請求項1〜5の何れか1項記載の造形対象抽出制御装置。
The virtual modeling control device
A display device that can be worn by the user, and displays a moving image in which the image of the shaped object is deformed according to the movement of the image of the hand of the user who is shaping the shaped object; A headset interface comprising biometric information detection means for detecting information;
A haptic sense presentation device for presenting haptic and tactile senses to the user's hand in accordance with a moving image displayed on the display device;
The shaping | molding object extraction control apparatus in any one of the Claims 1-5 which have these.
通信回線網を介して、他の使用者と共有し得る三次元仮想現実空間を構築する仮想造形制御装置と、
前記仮想造形制御装置から、共同で造形物を仮想造形している期間中の特定の造形物の画像データを抽出する造形対象抽出制御装置と、
抽出された画像データの提供を受けて、三次元造形物を造形する三次元造形装置と、
を有する造形制御システム。
A virtual modeling control apparatus for constructing a three-dimensional virtual reality space that can be shared with other users via a communication network;
A modeling target extraction control device for extracting image data of a specific modeling object during a period of virtual modeling of a modeling object jointly from the virtual modeling control device;
A three-dimensional modeling apparatus for modeling a three-dimensional object in response to provision of the extracted image data;
Modeling control system having.
前記造形対象抽出制御装置が、
前記仮想造形制御装置から仮想造形中における各々の使用者から、共同で造形物を仮想造形している期間中に、各々の使用者から得た生体情報を取得する取得手段と、
前記取得手段で取得した生体情報において特徴的な時期を抽出し、抽出した時期に仮想造形している造形物の画像データを三次元造形候補として記憶する記憶手段と、
前記記憶手段に記憶された画像データの中から、使用者毎の特徴的な時期に対応する画像データを読み出して、各々の使用者が管理する前記三次元造形装置へ提供する提供手段と、
を備える請求項7記載の造形制御システム。
The shaping target extraction control device is
An acquisition unit configured to acquire biological information obtained from each user from the user during the virtual modeling jointly from each user during virtual modeling from the virtual modeling control device;
Storage means for extracting a characteristic time in the biological information acquired by the acquisition means, and storing image data of a three-dimensional object being modeled at the extracted time as a three-dimensional formation candidate;
Providing means for reading out image data corresponding to a characteristic time for each user from the image data stored in the storage means, and providing the three-dimensional modeling apparatus managed by each user to the three-dimensional modeling device;
The shaping control system according to claim 7, comprising:
前記生体情報とは別に、使用者が造形中に指定した時期の画像データを抽出し、記憶する請求項8記載の造形制御システム。   The formation control system according to claim 8, wherein image data of a time designated by a user during formation is extracted and stored separately from the biological information. 前記仮想造形制御装置が、
前記使用者が装着可能であり、前記造形物の画像が、当該造形物を造形している使用者の手の画像の動きに応じて変形していく動画像を表示する表示装置、及び、生体情報を検出する生体情報検出手段を備えたヘッドセットインターフェイスと、
前記表示装置に表示される動画像に伴って、使用者の手に、力覚及び触覚を提示する力触覚提示装置と、
を有する請求項7〜9の何れか1項記載の造形制御システム。
The virtual modeling control device
A display device that can be worn by the user, and displays a moving image in which the image of the shaped object is deformed according to the movement of the image of the hand of the user who is shaping the shaped object; A headset interface comprising biometric information detection means for detecting information;
A haptic sense presentation device for presenting haptic and tactile senses to the user's hand in accordance with a moving image displayed on the display device;
The shaping control system according to any one of claims 7 to 9, comprising:
コンピュータを
請求項1〜請求項6の何れか1項記載の造形対象抽出制御装置として実行させる
造形対象抽出制御プログラム。
A formation object extraction control program which makes a computer run as a formation object extraction control device according to any one of claims 1 to 6.
JP2017171805A 2017-09-07 2017-09-07 Modeling object extraction control device, modeling control system, and modeling object extraction control program Pending JP2019043110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017171805A JP2019043110A (en) 2017-09-07 2017-09-07 Modeling object extraction control device, modeling control system, and modeling object extraction control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171805A JP2019043110A (en) 2017-09-07 2017-09-07 Modeling object extraction control device, modeling control system, and modeling object extraction control program

Publications (1)

Publication Number Publication Date
JP2019043110A true JP2019043110A (en) 2019-03-22

Family

ID=65813528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171805A Pending JP2019043110A (en) 2017-09-07 2017-09-07 Modeling object extraction control device, modeling control system, and modeling object extraction control program

Country Status (1)

Country Link
JP (1) JP2019043110A (en)

Similar Documents

Publication Publication Date Title
KR101639066B1 (en) Method and system for controlling virtual model formed in virtual space
Lhachemi et al. Augmented reality, cyber-physical systems, and feedback control for additive manufacturing: a review
WO2017029488A3 (en) Methods of generating personalized 3d head models or 3d body models
JP6930310B2 (en) Modeling control device, modeling control program
JP2009276996A (en) Information processing apparatus, and information processing method
US20160176117A1 (en) Variable slicing for 3d modeling
US20110087354A1 (en) Modeling skin-covered robotics devices including artistic digital iterative design processes
EP3118670A1 (en) One-piece eyewear
WO2008005432A3 (en) System and method for manufacturing full and partial dentures
JP2017509181A5 (en)
KR101052805B1 (en) 3D model object authoring method and system in augmented reality environment
Kim et al. Compositional 3D printing: expanding & supporting workflows towards continuous fabrication
EP3065109A2 (en) System, device and method of 3d printing
US20180158222A1 (en) Image processing apparatus displaying image of virtual object and method of displaying the same
CN106919899A (en) The method and system for imitating human face expression output based on intelligent robot
KR101665039B1 (en) Computer system and method for exporting data for 3D printer based on figure customizing function
JP3984585B2 (en) Manufacturing method of mask
US20150091215A1 (en) Fabricating lightweight skin systems for large scale robotic characters
CN106326523B (en) Information processing apparatus, information processing method, and computer program
JP2019046403A (en) Shaping object extraction control device and shaping object extraction control program
Caruso et al. Interactive augmented reality system for product design review
JP6376591B2 (en) Data output device, data output method, and three-dimensional object manufacturing system
JP2019043110A (en) Modeling object extraction control device, modeling control system, and modeling object extraction control program
CN106808680A (en) Three-dimensional printing method and apply its three-dimensional printing device
Vandevelde et al. Ono, a DIY open source platform for social robotics