JPWO2020227428A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020227428A5
JPWO2020227428A5 JP2021565963A JP2021565963A JPWO2020227428A5 JP WO2020227428 A5 JPWO2020227428 A5 JP WO2020227428A5 JP 2021565963 A JP2021565963 A JP 2021565963A JP 2021565963 A JP2021565963 A JP 2021565963A JP WO2020227428 A5 JPWO2020227428 A5 JP WO2020227428A5
Authority
JP
Japan
Prior art keywords
user
user interface
key
product description
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021565963A
Other languages
Japanese (ja)
Other versions
JP2022537250A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2020/031705 external-priority patent/WO2020227428A1/en
Publication of JP2022537250A publication Critical patent/JP2022537250A/en
Publication of JPWO2020227428A5 publication Critical patent/JPWO2020227428A5/ja
Pending legal-status Critical Current

Links

Description

上記明細書では、本発明の実施形態が、実施形態間で異なってよい多数の具体的詳細を参照しながら説明された。従って、特許請求範囲の唯一で排他的な指標及び出願人が意図する特許請求範囲は、後に続くどんな修正も含め本出願に係る一組の請求項であり、請求項の記載に具体的な形態で示されている。従って、請求項に明示的に記載されていないどんな限定、要素、特性、特徴、利点、又は属性も、その請求項の範囲を決して限定すべきでない。従って、明細書及び図面は、限定の趣旨ではなく、例示の趣旨で理解されるべきである。
以下、本発明の好ましい実施形態を項分け記載する。
実施形態1
ニューラルネットワークの挙動を制約するためのコンピュータ実装方法であって、
前記ニューラルネットワークに、第1の訓練データに基づいて第1の推論操作を実行させて、第1の出力を生成させること、
前記第1の訓練データに関連付けられた第1のターゲット出力に基づいて、前記第1の出力に対応する第1のルールを生成すること、
第2の推論操作を実行するときに前記ニューラルネットワークが前記第1の出力を生成することを判定すること、及び
前記ニューラルネットワークが第1の入力の受信に応答して前記第1の出力を出力するのを防ぎ、前記ニューラルネットワークが前記第1の入力の受信に応答して前記第1のターゲット出力を出力するようにする前記第1のルールを実行すること、
を含む、前記方法。
実施形態2
前記第1の出力と前記第1のターゲット出力との間の比較に基づいて、前記第1の出力が不正確であると判定することをさらに含む、実施形態1に記載のコンピュータ実装方法。
実施形態3
前記第1のルールに関連付けられたプログラムコードを表示するためグラフィカルユーザインターフェイスを生成すること、
第2のルールを生成するために前記グラフィカルユーザインターフェイスを介して前記プログラムコードへの少なくとも1つの変更を受信すること、及び
前記ニューラルネットワークが第1の入力の受信に応答して前記第1の出力を出力するのを防ぎ、前記ニューラルネットワークが前記第1の入力の受信に応答して異なる出力を出力するようにする前記第2のルールを実行すること、
をさらに含む、実施形態1に記載のコンピュータ実装方法。
実施形態4
知識ベースから、前記第1の訓練データに関連する語彙用語のセットを抽出すること、及び
語彙用語の前記セットを表示するためのグラフィカルユーザインターフェイスを生成すること、
をさらに含む、実施形態1に記載のコンピュータ実装方法。
実施形態5
知識ベースから、前記第1の訓練データの1つ以上の論理属性を示すドメイン事実のセットを抽出すること、及び
前記ドメイン事実のセットを表示するためのグラフィカルユーザインターフェイスを生成すること、
をさらに含む、実施形態1に記載のコンピュータ実装方法。
実施形態6
前記ドメイン事実のセット及び前記第1の出力に基づいて派生的事実を生成することをさらに含み、
前記派生的事実は、前記第1の推論動作を実行するときに前記ニューラルネットワークの機能的属性を特徴付ける、実施形態5に記載のコンピュータ実装方法。
実施形態7
グラフィカルユーザインターフェイスを介して表示するための前記ニューラルネットワークのアーキテクチャ表現を生成すること、及び
前記グラフィカルユーザインターフェイスを介して受信した入力に基づいて、前記ニューラルネットワークの複数の異なるバージョンを生成すること、
をさらに含む、実施形態1に記載のコンピュータ実装方法。
実施形態8
前記ニューラルネットワークの少なくとも1つのバージョンのパフォーマンスデータを生成することであって、前記パフォーマンスデータが、訓練フェーズ中の前記ニューラルネットワークの前記少なくとも1つのバージョンの1つ以上のパフォーマンス特性を特徴付ける、前記生成すること、及び
前記パフォーマンスデータを表示するために前記グラフィカルユーザインターフェイスを更新すること、
をさらに含む、実施形態1に記載のコンピュータ実装方法。
実施形態9
前記パフォーマンスデータは、前記ニューラルネットワークの前記少なくとも1つのバージョンが、動作中に1つまたは複数の出力を生成する精度を示す、実施形態8に記載のコンピュータ実装方法。
実施形態10
前記パフォーマンスデータは、前記ニューラルネットワークの前記少なくとも1つのバージョンが1つまたは複数の出力を生成するのに要する時間の長さを示す、実施形態8に記載のコンピュータ実装方法。
実施形態11
プロセッサによって実行されるとき、前記プロセッサに、ニューラルネットワークの挙動を制約させるプログラム命令を格納する非一時的なコンピュータ可読媒体であって、前記プロセッサは、
第1の訓練データに関連付けられた第1のターゲット出力に基づいて第1の出力に対応する第1のルールを生成するステップであって、前記第1の出力は、前記第1の訓練データを使用して前記ニューラルネットワークによって実行される第1の推論操作から生じる、前記生成するステップ、
第2の推論操作を実行するときに前記ニューラルネットワークが前記第1の出力を生成することを判定するステップ、及び
前記ニューラルネットワークが第1の入力の受信に応答して前記第1の出力を出力するのを防ぎ、前記ニューラルネットワークが前記第1の入力の受信に応答して前記第1のターゲット出力を出力するようにする前記第1のルールを実行するステップ、
を実行する、前記非一時的なコンピュータ可読媒体。
実施形態12
前記第1の出力と前記第1のターゲット出力との間の比較に基づいて、前記第1の出力が不正確であると判定するステップをさらに含む、実施形態11に記載の非一時的なコンピュータ可読媒体。
実施形態13
前記第1のルールに関連付けられたプログラムコードを表示するためグラフィカルユーザインターフェイスを生成するステップ、
第2のルールを生成するために前記グラフィカルユーザインターフェイスを介して前記プログラムコードへの少なくとも1つの変更を受信するステップ、及び
前記ニューラルネットワークが第1の入力の受信に応答して前記第1の出力を出力するのを防ぎ、前記ニューラルネットワークが前記第1の入力の受信に応答して異なる出力を出力するようにする前記第2のルールを実行するステップ、
をさらに含む、実施形態11に記載の非一時的なコンピュータ可読媒体。
実施形態14
知識ベースから、前記第1の訓練データに関連する語彙用語のセットを抽出するステップ、及び
語彙用語の前記セットを表示するためのグラフィカルユーザインターフェイスを生成するステップ、
をさらに含む、実施形態11に記載の非一時的なコンピュータ可読媒体。
実施形態15
知識ベースから、前記第1の訓練データの1つ以上の論理属性を示すドメイン事実のセットを抽出するステップ、及び
前記ドメイン事実のセットを表示するためのグラフィカルユーザインターフェイスを生成するステップ、
をさらに含む、実施形態11に記載の非一時的なコンピュータ可読媒体。
実施形態16
前記ドメイン事実のセット及び前記第1の出力に基づいて派生的事実を生成するステップをさらに含み、
前記派生的事実は、前記第1の推論操作を介して処理される訓練データの第1のサンプルの少なくとも1つの属性を示す、実施形態15に記載の非一時的なコンピュータ可読媒体。
実施形態17
前記ニューラルネットワークの少なくとも1つのバージョンのパフォーマンスデータを生成するステップであって、前記パフォーマンスデータが、訓練フェーズ中の前記ニューラルネットワークの前記少なくとも1つのバージョンの1つ以上のパフォーマンス特性を特徴付ける、前記生成するステップ、及び
前記パフォーマンスデータを表示するために前記グラフィカルユーザインターフェイスを更新するステップ、
をさらに含む、実施形態11に記載の非一時的なコンピュータ可読媒体。
実施形態18
前記パフォーマンスデータは、前記ニューラルネットワークの前記少なくとも1つのバージョンが、動作の間に1つまたは複数の出力を生成するときに消費するメモリの量を示す、実施形態17に記載の非一時的なコンピュータ可読媒体。
実施形態19
前記パフォーマンスデータは、前記ニューラルネットワークの前記少なくとも1つのバージョンに含まれるニューラルネットワーク層が動作の間に1つまたは複数の出力を処理するときに消費するメモリの量を示す、実施形態17に記載の非一時的なコンピュータ可読媒体。
実施形態20
ソフトウェアアプリケーションを格納するメモリと、
プロセッサであって、前記ソフトウェアアプリケーションを実行するときに、
ニューラルネットワークに、第1の訓練データに基づいて第1の推論操作を実行させて、第1の出力を生成させるステップ、
前記第1の訓練データに関連付けられた第1のターゲット出力に基づいて、前記第1の出力に対応する第1のルールを生成するステップ、
第2の推論操作を実行するときに前記ニューラルネットワークが前記第1の出力を生成することを判定するステップ、及び
前記ニューラルネットワークが前記第1の入力の受信に応答して前記第1の出力を出力するのを防ぎ、前記ニューラルネットワークが前記第1の入力の受信に応答して前記第1のターゲット出力を出力するようにする前記第1のルールを実行するステップ、
を実行するよう構成されるプロセッサと、
を備えるシステム。
In the foregoing specification, embodiments of the invention have been described with reference to numerous specific details that may vary between embodiments. Accordingly, the sole and exclusive reference to the claims, and Applicant's intended scope, is the set of claims in the present application including any amendments thereto, including any particular form set forth in the claims. is indicated. Hence, no limitation, element, property, feature, advantage or attribute that is not expressly recited in a claim should limit the scope of such claim in any way. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense.
Hereinafter, preferred embodiments of the present invention will be described item by item.
Embodiment 1
A computer-implemented method for constraining behavior of a neural network, comprising:
causing the neural network to perform a first inference operation based on first training data to produce a first output;
generating a first rule corresponding to the first output based on the first target output associated with the first training data;
determining that the neural network produces the first output when performing a second inference operation; and
preventing the neural network from outputting the first output in response to receiving the first input and outputting the first target output in response to receiving the first input; executing the first rule to
The above method, comprising
Embodiment 2
2. The computer-implemented method of embodiment 1, further comprising determining that the first output is inaccurate based on a comparison between the first output and the first target output.
Embodiment 3
generating a graphical user interface to display program code associated with the first rule;
receiving at least one change to the program code via the graphical user interface to generate a second rule; and
preventing the neural network from outputting the first output in response to receiving the first input and causing the neural network to output a different output in response to receiving the first input; executing the second rule;
2. The computer-implemented method of embodiment 1, further comprising:
Embodiment 4
extracting from a knowledge base a set of vocabulary terms associated with the first training data; and
generating a graphical user interface for displaying the set of vocabulary terms;
2. The computer-implemented method of embodiment 1, further comprising:
Embodiment 5
extracting from a knowledge base a set of domain facts indicative of one or more logical attributes of the first training data; and
generating a graphical user interface for displaying the set of domain facts;
2. The computer-implemented method of embodiment 1, further comprising:
Embodiment 6
further comprising generating derivative facts based on the set of domain facts and the first output;
6. The computer-implemented method of embodiment 5, wherein the derivative facts characterize functional attributes of the neural network when performing the first inference operation.
Embodiment 7
generating an architectural representation of the neural network for display via a graphical user interface; and
generating multiple different versions of the neural network based on inputs received via the graphical user interface;
2. The computer-implemented method of embodiment 1, further comprising:
Embodiment 8
generating performance data for at least one version of the neural network, the performance data characterizing one or more performance characteristics of the at least one version of the neural network during a training phase; that, and
updating the graphical user interface to display the performance data;
2. The computer-implemented method of embodiment 1, further comprising:
Embodiment 9
9. The computer-implemented method of embodiment 8, wherein the performance data indicates accuracy with which the at least one version of the neural network produces one or more outputs during operation.
Embodiment 10
9. The computer-implemented method of embodiment 8, wherein the performance data indicates the amount of time it takes the at least one version of the neural network to generate one or more outputs.
Embodiment 11
A non-transitory computer-readable medium storing program instructions that, when executed by a processor, cause the processor to constrain the behavior of a neural network, the processor comprising:
generating a first rule corresponding to a first output based on a first target output associated with first training data, wherein the first output outputs the first training data; the generating step resulting from a first inference operation performed by the neural network using
determining that the neural network produces the first output when performing a second inference operation; and
preventing the neural network from outputting the first output in response to receiving the first input and outputting the first target output in response to receiving the first input; executing the first rule to
the non-transitory computer-readable medium for executing
Embodiment 12
12. The non-transitory computer of embodiment 11, further comprising determining that the first output is inaccurate based on a comparison between the first output and the first target output. readable medium.
Embodiment 13
generating a graphical user interface to display program code associated with the first rule;
receiving at least one change to the program code via the graphical user interface to generate a second rule; and
preventing the neural network from outputting the first output in response to receiving the first input and causing the neural network to output a different output in response to receiving the first input; executing the second rule;
12. The non-transitory computer-readable medium of embodiment 11, further comprising:
Embodiment 14
extracting from a knowledge base a set of vocabulary terms associated with the first training data; and
generating a graphical user interface for displaying said set of vocabulary terms;
12. The non-transitory computer-readable medium of embodiment 11, further comprising:
Embodiment 15
extracting from a knowledge base a set of domain facts indicative of one or more logical attributes of the first training data; and
generating a graphical user interface for displaying the set of domain facts;
12. The non-transitory computer-readable medium of embodiment 11, further comprising:
Embodiment 16
further comprising generating derivative facts based on the set of domain facts and the first output;
16. The non-transitory computer-readable medium of embodiment 15, wherein the derivative fact indicates at least one attribute of a first sample of training data processed via the first inference operation.
Embodiment 17
generating performance data for at least one version of said neural network, said performance data characterizing one or more performance characteristics of said at least one version of said neural network during a training phase; step, and
updating the graphical user interface to display the performance data;
12. The non-transitory computer-readable medium of embodiment 11, further comprising:
Embodiment 18
18. The non-transient computer of embodiment 17, wherein the performance data indicates the amount of memory that the at least one version of the neural network consumes when generating one or more outputs during operation. readable medium.
Embodiment 19
18. The method of embodiment 17, wherein the performance data indicates the amount of memory consumed when neural network layers included in the at least one version of the neural network process one or more outputs during operation. A non-transitory computer-readable medium.
Embodiment 20
a memory storing a software application;
A processor, which when executing the software application:
causing the neural network to perform a first inference operation based on the first training data to produce a first output;
generating a first rule corresponding to said first output based on said first target output associated with said first training data;
determining that the neural network produces the first output when performing a second inference operation; and
preventing the neural network from outputting the first output in response to receiving the first input and outputting the first target output in response to receiving the first input; executing the first rule that causes
a processor configured to execute
A system with

Claims (20)

コンピュータ実行方法であって、
コンピュータ共同システムにおいて第1ユーザーに関連する第1ユーザー装置で動作する第1ユーザーインターフェースから電子デジタル編集招待を受信するステップであって、前記編集招待は第2ユーザーがデジタル電子対話式デザインで編集者として共同するよう招待することからなり、前記対話式デザインは、複数のキー・値ペアを含む製品記述データに関連し、前記キー・値ペアのそれぞれは、属性及び属性値を含み、複数の可変製品属性を有しカスタム製造可能な物理的製品の図形視覚表現からなる、ステップと、
前記受信するステップに応答して、
前記第2ユーザーに前記製品記述データへの編集者としてのアクセスを許可するステップと、
前記コンピュータ共同システムから前記第2ユーザーに関連する第2ユーザー装置へ前記第2ユーザー装置で動作する第2ユーザーインターフェースで前記対話式デザインを描画するために、前記複数のキー・値ペアを含む前記製品記述データを送信するステップと、
前記製品記述データを送信するステップに応答して、
前記第2ユーザーインターフェースから前記対話式デザインへの第1変更を受信するステップであって、前記対話式デザインへの前記第1変更は、前記複数のキー・値ペアを変更することにより生成される変更された複数のキー・値ペアを含み、前記編集者であるユーザーアカウントだけに許可される、ステップと、
前記第1変更及び前記変更された複数のキー・値ペアに基づいて前記製品記述データを更新することで、第1更新された製品記述データを自動的に生成し、前記第1更新された製品記述データを前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースへ送信し、前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに前記対話式デザインの表示を更新させるステップと
を含む方法。
A computer-implemented method comprising:
Receiving an electronic digital editing invitation from a first user interface operating on a first user device associated with a first user in a computer collaboration system, said editing invitation allowing a second user to edit a digital electronic interactive design. wherein said interactive design is associated with product description data comprising a plurality of key-value pairs , each of said key-value pairs comprising an attribute and an attribute value, a plurality of variable comprising a graphic visual representation of a custom manufacturable physical product having product attributes;
In response to the receiving step,
granting the second user editorial access to the product description data;
including the plurality of key-value pairs for rendering the interactive design from the computer collaboration system to a second user device associated with the second user in a second user interface operating on the second user device. transmitting the product description data;
In response to the step of transmitting product description data,
receiving a first modification to the interactive design from the second user interface, the first modification to the interactive design being generated by modifying the plurality of key-value pairs; containing a plurality of modified key-value pairs, permitted only to user accounts that are editors;
automatically generating first updated product description data by updating the product description data based on the first change and the changed plurality of key-value pairs; and sending descriptive data to the first user interface and the second user interface to cause the first user interface and the second user interface to update a display of the interactive design.
前記コンピュータ共同システムにおいて、
前記第1ユーザーに関連する前記第1ユーザー装置で動作する前記第1ユーザーインターフェースから観察者招待を受信するステップであって、前記観察者招待は前記第2ユーザーが前記対話式デザインで観察者として共同するよう招待する、ステップと、
前記第2ユーザーに前記製品記述データへの観察者としてのアクセスを許可するステップと、
前記第1ユーザーインターフェースから前記対話式デザインへの第2変更を受信するステップと、
前記第2変更に基づいて前記製品記述データを更新することで、第2更新された製品記述データを自動的に生成し、前記第2更新された製品記述データを前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースへ送信し、前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに前記対話式デザインの表示を更新させるステップと
を更に含む請求項1記載の方法。
In the computer collaboration system,
receiving an observer invitation from the first user interface operating on the first user device associated with the first user, the observer invitation allowing the second user to act as an observer in the interactive design; inviting to collaborate; and
authorizing the second user as an observer to access the product description data;
receiving a second change to the interactive design from the first user interface;
automatically generating second updated product description data by updating the product description data based on the second change; and transmitting the second updated product description data to the first user interface and the second 2 user interface and causing the first user interface and the second user interface to update the display of the interactive design.
前記製品記述データへのアクセスを許可することは、ユーザーに割り当てられた役割に基づき、前記役割は顧客役割、顧客支援者役割、図形設計者役割、顧客仲間役割、又はカスタム製品芸術家役割のうち1つ以上から選択される、請求項2記載の方法。 granting access to the product description data is based on a role assigned to a user, the role being one of a customer role, a customer assistant role, a graphics designer role, a customer companion role, or a custom product artist role; 3. The method of claim 2, selected from one or more. 前記第1変更及び前記第2変更のそれぞれは、シリアル化されたキー・値ペア及び変更の詳細を表す関連データとして送信され、
前記第1変更及び前記第2変更のそれぞれは、前記対話式デザイン及び製品記述の製品記述データを管理する製品オプション枠組みに送信され、
前記第1変更及び前記第2変更のそれぞれは、前記製品記述に関連する記録リストに記憶され、
前記第1変更及び前記第2変更のそれぞれは、前記対話式デザインの単一の製品属性を変更するのに使用される、請求項3記載の方法。
each of said first modification and said second modification being transmitted as a serialized key-value pair and associated data representing details of the modification;
each of said first change and said second change being sent to a product option framework managing product description data for said interactive design and product description;
each of said first change and said second change being stored in a record list associated with said product description;
4. The method of claim 3, wherein each of said first modification and said second modification is used to modify a single product attribute of said interactive design.
前記製品オプション枠組みに特定の変更に関連する特定のキー・値ペア及び特定のデータを前記記録リストから除去させることで前記記録リストからその特定の変更を除去するステップを更に含み、
前記記録リストは縮小されて前記対話式デザインの最終形態に直接は寄与しない1つ以上のキー・値ペア及び関連データが除去され、
前記記録リストに記憶されている1つ以上のキー・値ペア及び関連データは並べ換えられ前記対話式デザインの最終形態を保存する、請求項4記載の方法。
further comprising removing the particular change from the recording list by causing the product option framework to remove particular key-value pairs and particular data associated with the particular change from the recording list;
the record list is reduced to remove one or more key-value pairs and related data that do not directly contribute to the final form of the interactive design;
5. The method of claim 4, wherein one or more key-value pairs and associated data stored in the record list are sorted to preserve the final form of the interactive design.
前記製品記述に記憶された1つ以上のキー・値ペア及び関連データを、属性種類、設計領域、又は位置ベース属性のうち1つ以上に従って特定のグループにまとめるステップと、
編集操作を前記特定のグループに及ぼすステップと、
テキスト、音声、又は映像コメントを前記特定のグループ又は前記特定のグループ内の個別オブジェクトに関連付けさせることで、前記編集操作を前記特定のグループに及ぼすステップと、
編集操作を及ぼして前記特定のグループを将来使用するためメモリに記憶させるステップと
を更に含む請求項5記載の方法。
grouping one or more key-value pairs and associated data stored in the product description into specific groups according to one or more of attribute type, design domain, or location-based attributes;
applying an editing operation to the particular group;
exerting said editing operation on said particular group by associating text, audio or video comments with said particular group or individual objects within said particular group;
6. The method of claim 5, further comprising effecting an editing operation to store said particular group in memory for future use.
前記製品記述に記憶された1つ以上のキー・値ペア及び関連データのそれぞれに画像種類、ベクトル図形、3Dモデル、又は他の属性のうち1つ以上に従ってタグ付けするステップと、
編集操作を及ぼしてオブジェクトをタグに従って編集させるステップと
を更に含む請求項6記載の方法。
tagging each of the one or more key-value pairs and associated data stored in the product description according to one or more of image type, vector graphics, 3D model, or other attributes;
7. The method of claim 6, further comprising applying an editing operation to cause the object to be edited according to the tag.
前記製品記述に記憶された1つ以上のキー・値ペア及び関連データのそれぞれにテキスト、色、表面品質、又はグループ属性のうち1つ以上に従ってタグ付けするステップと、
編集操作を及ぼしてオブジェクトをタグに従って編集させるステップと
を更に含む請求項7記載の方法。
tagging each of the one or more key-value pairs and associated data stored in the product description according to one or more of text, color, surface quality, or group attributes;
8. The method of claim 7, further comprising applying an editing operation to cause the object to be edited according to the tag.
前記第1ユーザー、前記第2ユーザー、又は前記製品記述の内容に適合する操作を提供するように構成されたソースのうち1つ以上によって提供された前記編集操作を前記製品記述にアップロードするステップと、
前記編集操作を前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに表示させることで前記編集操作を前記第1ユーザー及び前記第2ユーザーに公開するステップと、
前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースのそれぞれに前記編集操作への変更を受け付けさせるステップであって、前記変更は操作の編集、キー・値ペアの編集、グループの編集、又はタグの編集のうち1つ以上を含む、ステップと
を更に含む請求項8記載の方法。
uploading to the product description the edit operations provided by one or more of the first user, the second user, or a source configured to provide operations compatible with content of the product description; ,
exposing the editing operation to the first user and the second user by causing the editing operation to be displayed on the first user interface and the second user interface;
causing each of the first user interface and the second user interface to accept a change to the editing operation, the change being an edit operation, an edit key-value pair, an edit group, or an edit tag. 9. The method of claim 8, further comprising the steps of:
1つ以上の命令を記憶する1つ以上の持続性コンピュータ読取可能記憶媒体であって、前記命令は1つ以上のプロセッサによって実行された時に前記1つ以上のプロセッサに、
コンピュータ共同システムにおいて第1ユーザーに関連する第1ユーザー装置で動作する第1ユーザーインターフェースから電子デジタル編集招待を受信するステップであって、前記編集招待は第2ユーザーがデジタル電子対話式デザインで編集者として共同するよう招待することからなり、前記対話式デザインは、複数のキー・値ペアを含む製品記述データに関連し、前記キー・値ペアのそれぞれは、属性及び属性値を含み、複数の可変製品属性を有しカスタム製造可能な物理的製品の図形視覚表現からなる、ステップと、
前記受信するステップに応答して、
前記第2ユーザーに前記製品記述データへの編集者としてのアクセスを許可するステップと、
前記コンピュータ共同システムから前記第2ユーザーに関連する第2ユーザー装置へ前記第2ユーザー装置で動作する第2ユーザーインターフェースで前記対話式デザインを描画するために、前記複数のキー・値ペアを含む前記製品記述データを送信するステップと、
前記製品記述データを送信するステップに応答して、
前記第2ユーザーインターフェースから前記対話式デザインへの第1変更を受信するステップであって、前記対話式デザインへの前記第1変更は、前記複数のキー・値ペアを変更することにより生成される変更された複数のキー・値ペアを含み、前記編集者であるユーザーアカウントだけに許可される、ステップと、
前記第1変更及び前記変更された複数のキー・値ペアに基づいて前記製品記述データを更新することで、第1更新された製品記述データを自動的に生成し、前記第1更新された製品記述データを前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースへ送信し、前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに前記対話式デザインの表示を更新させるステップと
を実行させる、1つ以上の持続性コンピュータ読取可能記憶媒体。
1. One or more persistent computer-readable storage media storing one or more instructions that, when executed by one or more processors, cause the one or more processors to:
Receiving an electronic digital editing invitation from a first user interface operating on a first user device associated with a first user in a computer collaboration system, said editing invitation allowing a second user to edit a digital electronic interactive design. wherein said interactive design is associated with product description data comprising a plurality of key-value pairs , each of said key-value pairs comprising an attribute and an attribute value, a plurality of variable comprising a graphic visual representation of a custom manufacturable physical product having product attributes;
In response to the receiving step,
granting the second user editorial access to the product description data;
including the plurality of key-value pairs for rendering the interactive design from the computer collaboration system to a second user device associated with the second user in a second user interface operating on the second user device. transmitting the product description data;
In response to the step of transmitting product description data,
receiving a first modification to the interactive design from the second user interface, the first modification to the interactive design being generated by modifying the plurality of key-value pairs; containing a plurality of modified key-value pairs, permitted only to user accounts that are editors;
automatically generating first updated product description data by updating the product description data based on the first change and the changed plurality of key-value pairs; and sending descriptive data to the first user interface and the second user interface and causing the first user interface and the second user interface to update a display of the interactive design. computer readable storage medium.
前記コンピュータ共同システムにおいて、前記第1ユーザーに関連する前記第1ユーザー装置で動作する前記第1ユーザーインターフェースから観察者招待を受信するステップであって、前記観察者招待は前記第2ユーザーが前記対話式デザインで観察者として共同するよう招待する、ステップと、
前記第2ユーザーに前記製品記述データへの観察者としてのアクセスを許可するステップと、
前記第1ユーザーインターフェースから前記対話式デザインへの第2変更を受信するステップと、
前記第2変更に基づいて前記製品記述データを更新することで、第2更新された製品記述データを自動的に生成し、前記第2更新された製品記述データを前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースへ送信し、前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに前記対話式デザインの表示を更新させるステップと
のための追加の命令群を記憶する請求項10記載の1つ以上の持続性コンピュータ読取可能記憶媒体。
In the computer collaboration system, receiving an observer invitation from the first user interface operating on the first user device associated with the first user, the observer invitation being the second user's interaction with the interaction. a step of inviting to collaborate as an observer in the design of the ceremony;
authorizing the second user as an observer to access the product description data;
receiving a second change to the interactive design from the first user interface;
automatically generating second updated product description data by updating the product description data based on the second change; and transmitting the second updated product description data to the first user interface and the second 11. The one or more persistence of claim 10, storing an additional set of instructions for sending to two user interfaces and causing the first user interface and the second user interface to update the display of the interactive design. computer readable storage medium.
前記製品記述データへのアクセスを許可することは、ユーザーに割り当てられた役割に基づき、前記役割は顧客役割、顧客支援者役割、図形設計者役割、顧客仲間役割、又はカスタム製品芸術家役割のうち1つ以上から選択される、請求項11記載の1つ以上の持続性コンピュータ読取可能記憶媒体。 granting access to the product description data is based on a role assigned to a user, the role being one of a customer role, a customer assistant role, a graphics designer role, a customer companion role, or a custom product artist role; 12. The one or more persistent computer-readable storage media of claim 11, selected from one or more. 前記第1変更及び前記第2変更のそれぞれは、シリアル化されたキー・値ペア及び変更の詳細を表す関連データとして送信され、
前記第1変更及び前記第2変更のそれぞれは、前記対話式デザイン及び製品記述の製品記述データを管理する製品オプション枠組みに送信され、
前記第1変更及び前記第2変更のそれぞれは、前記製品記述に関連する記録リストに記憶され、
前記第1変更及び前記第2変更のそれぞれは、前記対話式デザインの単一の製品属性を変更するのに使用される、請求項12記載の1つ以上の持続性コンピュータ読取可能記憶媒体。
each of said first modification and said second modification being transmitted as a serialized key-value pair and associated data representing details of the modification;
each of said first change and said second change being sent to a product option framework managing product description data for said interactive design and product description;
each of said first change and said second change being stored in a record list associated with said product description;
13. The one or more persistent computer-readable storage media of claim 12, wherein each of said first change and said second change is used to change a single product attribute of said interactive design.
前記製品オプション枠組みに特定の変更に関連する特定のキー・値ペア及び特定のデータを前記記録リストから除去させることで前記記録リストからその特定の変更を除去するステップのための追加の命令群を記憶し、
前記記録リストは縮小されて前記対話式デザインの最終形態に直接は寄与しない1つ以上のキー・値ペア及び関連データが除去され、
前記記録リストに記憶されている1つ以上のキー・値ペア及び関連データは並べ換えられ前記対話式デザインの最終形態を保存する、請求項13記載の1つ以上の持続性コンピュータ読取可能記憶媒体。
additional instructions for removing a particular change from the record list by causing the product option framework to remove specific key-value pairs and specific data associated with the particular change from the record list; remember,
the record list is reduced to remove one or more key-value pairs and related data that do not directly contribute to the final form of the interactive design;
14. The one or more persistent computer-readable storage media of claim 13, wherein one or more key-value pairs and associated data stored in the record list are permuted to preserve the final form of the interactive design.
前記製品記述に記憶された1つ以上のキー・値ペア及び関連データを、属性種類、設計領域、又は位置ベース属性のうち1つ以上に従って特定のグループにまとめるステップと、
編集操作を前記特定のグループに及ぼすステップと、
テキスト、音声、又は映像コメントを前記特定のグループ又は前記特定のグループ内の個別オブジェクトに関連付けさせることで、前記編集操作を前記特定のグループに及ぼすステップと、
編集操作を及ぼして前記特定のグループを将来使用するためメモリに記憶させるステップと
のための追加の命令群を記憶する請求項14記載の1つ以上の持続性コンピュータ読取可能記憶媒体。
grouping one or more key-value pairs and associated data stored in the product description into specific groups according to one or more of attribute type, design domain, or location-based attributes;
applying an editing operation to the particular group;
exerting said editing operation on said particular group by associating text, audio or video comments with said particular group or individual objects within said particular group;
15. The one or more persistent computer-readable storage media of claim 14, storing additional instructions for effecting an editing operation to store the particular group in memory for future use.
前記製品記述に記憶された1つ以上のキー・値ペア及び関連データのそれぞれに画像種類、ベクトル図形、3Dモデル、又は他の属性のうち1つ以上に従ってタグ付けするステップと、
編集操作を及ぼしてオブジェクトをタグに従って編集させるステップと
のための追加の命令群を記憶する請求項15記載の1つ以上の持続性コンピュータ読取可能記憶媒体。
tagging each of the one or more key-value pairs and associated data stored in the product description according to one or more of image type, vector graphics, 3D model, or other attributes;
16. The one or more persistent computer-readable storage media of claim 15, storing additional instructions for effecting an editing operation to cause the object to be edited according to the tag.
前記製品記述に記憶された1つ以上のキー・値ペア及び関連データのそれぞれにテキスト、色、表面品質、又はグループ属性のうち1つ以上に従ってタグ付けするステップと、
編集操作を及ぼしてオブジェクトをタグに従って編集させるステップと
のための追加の命令群を記憶する請求項16記載の1つ以上の持続性コンピュータ読取可能記憶媒体。
tagging each of the one or more key-value pairs and associated data stored in the product description according to one or more of text, color, surface quality, or group attributes;
17. The one or more persistent computer-readable storage media of claim 16, storing additional instructions for effecting an editing operation to cause the object to be edited according to the tag.
コンピュータ共同システムであって、
メモリユニットと、
1つ以上のプロセッサと、
コンピュータ共同部であって、
コンピュータ共同システムにおいて第1ユーザーに関連する第1ユーザー装置で動作する第1ユーザーインターフェースから電子デジタル編集招待を受信するステップであって、前記編集招待は第2ユーザーがデジタル電子対話式デザインで編集者として共同するよう招待することからなり、前記対話式デザインは、複数のキー・値ペアを含む製品記述データに関連し、前記キー・値ペアのそれぞれは、属性及び属性値を含み、複数の可変製品属性を有しカスタム製造可能な物理的製品の図形視覚表現からなる、ステップと、
前記受信するステップに応答して、
前記第2ユーザーに前記製品記述データへの編集者としてのアクセスを許可するステップと、
前記コンピュータ共同システムから前記第2ユーザーに関連する第2ユーザー装置へ前記第2ユーザー装置で動作する第2ユーザーインターフェースで前記対話式デザインを描画するために、前記複数のキー・値ペアを含む前記製品記述データを送信するステップと、
前記製品記述データを送信するステップに応答して、
前記第2ユーザーインターフェースから前記対話式デザインへの第1変更を受信するステップであって、前記対話式デザインへの前記第1変更は、前記複数のキー・値ペアを変更することにより生成される変更された複数のキー・値ペアを含み、前記編集者であるユーザーアカウントだけに許可される、ステップと、
前記第1変更及び前記変更された複数のキー・値ペアに基づいて前記製品記述データを更新することで、第1更新された製品記述データを自動的に生成し、前記第1更新された製品記述データを前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースへ送信し、前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに前記対話式デザインの表示を更新させるステップと
を実行するコンピュータ共同部と
を含むコンピュータ共同システム。
A computer collaboration system,
a memory unit;
one or more processors;
a computer community,
Receiving an electronic digital editing invitation from a first user interface operating on a first user device associated with a first user in a computer collaboration system, said editing invitation allowing a second user to edit a digital electronic interactive design. wherein said interactive design is associated with product description data comprising a plurality of key-value pairs , each of said key-value pairs comprising an attribute and an attribute value, a plurality of variable comprising a graphic visual representation of a custom manufacturable physical product having product attributes;
In response to the receiving step,
granting the second user editorial access to the product description data;
including the plurality of key-value pairs for rendering the interactive design from the computer collaboration system to a second user device associated with the second user in a second user interface operating on the second user device. transmitting the product description data;
In response to the step of transmitting product description data,
receiving a first modification to the interactive design from the second user interface, the first modification to the interactive design being generated by modifying the plurality of key-value pairs; containing a plurality of modified key-value pairs, permitted only to user accounts that are editors;
automatically generating first updated product description data by updating the product description data based on the first change and the changed plurality of key-value pairs; and sending descriptive data to said first user interface and said second user interface and causing said first user interface and said second user interface to update a representation of said interactive design. computer collaborative system.
前記コンピュータ共同部は
前記第1ユーザーに関連する前記第1ユーザー装置で動作する前記第1ユーザーインターフェースから観察者招待を受信するステップであって、前記観察者招待は前記第2ユーザーが前記対話式デザインで観察者として共同するよう招待する、ステップと、
前記第2ユーザーに前記製品記述データへの観察者としてのアクセスを許可するステップと、
前記第1ユーザーインターフェースから前記対話式デザインへの第2変更を受信するステップと、
前記第2変更に基づいて前記製品記述データを更新することで、第2更新された製品記述データを自動的に生成し、前記第2更新された製品記述データを前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースへ送信し、前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースに前記対話式デザインの表示を更新させるステップと
を更に実行する、請求項18記載のコンピュータ共同システム。
The computer collaboration receives an observer invitation from the first user interface operating on the first user device associated with the first user, the observer invitation received by the second user from the interactive a step of inviting to collaborate as an observer on the design;
authorizing the second user as an observer to access the product description data;
receiving a second change to the interactive design from the first user interface;
automatically generating second updated product description data by updating the product description data based on the second change; and transmitting the second updated product description data to the first user interface and the second 20. The computer collaboration system of claim 18, further comprising the step of sending to two user interfaces and causing the first user interface and the second user interface to update the display of the interactive design.
コンピュータ実行方法であって、
サーバーコンピュータにおいてカスタム製品をカスタマイズしているユーザーのユーザー装置から前記カスタム製品の属性を規定する第1属性値を受信するステップと、
前記第1属性値を受信したことに応答して、前記サーバーコンピュータによって少なくとも部分的に前記カスタム製品の前記第1属性値及び1つ以上の他の属性に基づいて第1の複数のキー・値ペアを含む第1製品記述データを生成するステップと、
サーバーコンピュータにおいて第1ユーザーに関連する第1ユーザー装置で動作する第1ユーザーインターフェースから編集招待を受信するステップであって、前記編集招待は第2ユーザーが対話式デザインで編集者として共同するよう招待する、ステップと、
前記編集招待を受信するステップに応答して、
前記サーバーコンピュータから前記第2ユーザーに関連する第2ユーザー装置へ、前記第2ユーザー装置で動作する第2ユーザーインターフェースで前記カスタム製品を描画させるために、前記第1の複数のキー・値ペアを含む前記第1製品記述データを送信するステップと、
前記第1製品記述データを送信するステップに応答して、
前記第2ユーザーインターフェースから前記カスタム製品への第1変更を受信するステップであって、前記第1変更は、前記第1の複数のキー・値ペアを変更することにより生成された第2の複数のキー・値ペアを含む、ステップと、
前記第1変更に基づいて、前記カスタム製品の第2製品記述データを自動的に生成し、前記第2製品記述データ及び前記第2の複数のキー・値ペアに基づき前記カスタム製品の描画された画像を生成するステップと、
前記カスタム製品の前記描画された画像を前記第1ユーザーインターフェース及び前記第2ユーザーに関連する第2ユーザーインターフェースへ送信するステップと
前記描画された画像を送信するステップに応答して、前記カスタム製品の製造の準備が整ったことの確認を前記第1ユーザーインターフェース及び前記第2ユーザーインターフェースから受信すると、前記第2製品記述データ及び前記第2の複数のキー・値ペアを製造者に送信して前記カスタム製品を製造させるステップと
を含む方法。
A computer-implemented method comprising:
receiving a first attribute value defining an attribute of the custom product from a user device of a user customizing the custom product at a server computer;
generating a first plurality of key-values based at least in part on the first attribute value and one or more other attributes of the custom product by the server computer in response to receiving the first attribute value; generating first product description data including pairs ;
receiving an editing invitation from a first user interface operating on a first user device associated with a first user at the server computer, said editing invitation inviting the second user to collaborate as an editor on the interactive design; do, step and
In response to receiving the editing invitation,
transmitting the first plurality of key-value pairs from the server computer to a second user device associated with the second user to render the custom product in a second user interface running on the second user device; transmitting said first product description data comprising:
In response to transmitting the first product description data,
receiving a first modification to the custom product from the second user interface, the first modification being a second plurality generated by modifying the first plurality of key-value pairs; a step containing key-value pairs of
automatically generating second product descriptive data for the custom product based on the first change; and rendering the custom product based on the second product descriptive data and the second plurality of key-value pairs. generating an image;
sending the rendered image of the custom product to the first user interface and a second user interface associated with the second user ;
Upon receiving confirmation from the first user interface and the second user interface that the custom product is ready for manufacturing in response to the step of transmitting the rendered image, the second product description data and sending the second plurality of key-value pairs to a manufacturer to manufacture the custom product;
method including.
JP2021565963A 2019-05-07 2020-05-06 Systems and methods for role-based co-design of custom products based on manufacturing constraints Pending JP2022537250A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962844249P 2019-05-07 2019-05-07
US62/844,249 2019-05-07
PCT/US2020/031705 WO2020227428A1 (en) 2019-05-07 2020-05-06 System and method for role-based collaborative design of custom products based on manufacturing constraints

Publications (2)

Publication Number Publication Date
JP2022537250A JP2022537250A (en) 2022-08-25
JPWO2020227428A5 true JPWO2020227428A5 (en) 2023-05-15

Family

ID=70857251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021565963A Pending JP2022537250A (en) 2019-05-07 2020-05-06 Systems and methods for role-based co-design of custom products based on manufacturing constraints

Country Status (7)

Country Link
US (2) US11558394B2 (en)
EP (1) EP3966767A1 (en)
JP (1) JP2022537250A (en)
CN (1) CN113826131A (en)
AU (1) AU2020270084A1 (en)
CA (1) CA3139083A1 (en)
WO (1) WO2020227428A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140392B1 (en) 2017-06-29 2018-11-27 Best Apps, Llc Computer aided systems and methods for creating custom products
US11113322B2 (en) * 2020-01-07 2021-09-07 Bank Of America Corporation Dynamically generating strategic planning datasets based on collecting, aggregating, and filtering distributed data collections
US11514203B2 (en) * 2020-05-18 2022-11-29 Best Apps, Llc Computer aided systems and methods for creating custom products
US11301925B1 (en) * 2020-09-01 2022-04-12 Printify, Inc. User interface for presenting provider information to designers and/or authors
US11734895B2 (en) 2020-12-14 2023-08-22 Toyota Motor North America, Inc. Systems and methods for enabling precise object interaction within an augmented reality environment
CN115328607B (en) * 2022-10-13 2023-03-10 广州镭晨智能装备科技有限公司 Semiconductor device rendering method, device, equipment and storage medium

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799320A (en) * 1989-08-23 1998-08-25 John R. Klug Remote multiple-user editing system and method
WO1993008536A1 (en) * 1991-10-24 1993-04-29 Anne Hudson & Associates Pty Ltd. Group based computer use system
US5732200A (en) * 1994-04-19 1998-03-24 International Business Machines Corporation Integration of groupware with quality function deployment methodology via facilitated work sessions
US6564246B1 (en) * 1999-02-02 2003-05-13 International Business Machines Corporation Shared and independent views of shared workspace for real-time collaboration
US7536641B2 (en) * 2005-04-29 2009-05-19 Google Inc. Web page authoring tool for structured documents
US20090043848A1 (en) * 2007-08-11 2009-02-12 Alexander Kordun Method and system for providing collaborative moderation and correction of message history in an instant mesaging session
WO2010014750A1 (en) 2008-07-29 2010-02-04 Zazzle.Com, Inc. Product customization system and method
US10719862B2 (en) 2008-07-29 2020-07-21 Zazzle Inc. System and method for intake of manufacturing patterns and applying them to the automated production of interactive, customizable product
WO2010022404A1 (en) 2008-08-22 2010-02-25 Zazzle.Com, Inc. Product customization system and method
US9269102B2 (en) * 2009-05-21 2016-02-23 Nike, Inc. Collaborative activities in on-line commerce
EP2497042A2 (en) * 2009-11-04 2012-09-12 Digital Forming Ltd Improvements relating to user interfaces for designing objects
EP3678054A1 (en) 2011-08-31 2020-07-08 Zazzle Inc. Product options framework and accessories
US20130238508A1 (en) * 2012-03-08 2013-09-12 Siemens Product Lifecycle Management Software Inc. Systems and methods for collaborative virtual product development
AU2014100094A4 (en) 2013-06-26 2014-03-06 Zazzle Inc. Displaying Customization Options and Collecting Customization Specifications
US10346892B1 (en) * 2013-08-06 2019-07-09 Dzine Steps L.L.C. Method for dynamic visual design customization
US20150220882A1 (en) * 2014-02-03 2015-08-06 International Business Machines Corporation Asset creation and utilization using an asset creation tool
US9852533B2 (en) 2015-08-10 2017-12-26 Zazzle Inc. System and method for digital markups of custom products
US11107037B2 (en) * 2017-12-15 2021-08-31 Siemens Industry Software Inc. Method and system of sharing product data in a collaborative environment
CN112262363A (en) * 2018-02-27 2021-01-22 利惠商业有限公司 Laser arrangement design tool
US11799924B2 (en) * 2019-10-22 2023-10-24 Zazzle Inc. Generating customized products in collaboration with live designers and agents

Similar Documents

Publication Publication Date Title
JP6818050B2 (en) Website building system and method
US10466971B2 (en) Generation of an application from data
CN109614424B (en) Page layout generation method, device, computing equipment and medium
CN109408764B (en) Page area dividing method, device, computing equipment and medium
CN110537179A (en) The system and method for match patterns attribute
US11582170B2 (en) Conversation-enabled document system and method
US11954536B2 (en) Data engine
US20210042110A1 (en) Methods And Systems For Resolving User Interface Features, And Related Applications
US20200402127A1 (en) Design creation, distribution, and publishing system, process, and method of use
US20150067520A1 (en) System for generating a plurality of graphical reports from a data set
CN110515606B (en) Block-based component development method
US20160314502A1 (en) System and method for streamlining the design and development process of multiple advertising units
CN112215923A (en) Picture generation method and device, electronic equipment and storage medium
CN116881353A (en) Financial data display method and device, storage medium and electronic equipment
US11610049B2 (en) Generating style configuration files using a library of styles
JPWO2020227428A5 (en)
TW202126360A (en) Customization and reproduction of an avatar on a physical item
US10685470B2 (en) Generating and providing composition effect tutorials for creating and editing digital content
US10896161B2 (en) Integrated computing environment for managing and presenting design iterations
CN107103636B (en) System and method for multiple representation dependency graphs
CN114564197A (en) Method for distinguishing field authority according to service scene and computer readable storage medium
KR20230023804A (en) Text-video creation methods, devices, facilities and media
US20200159805A1 (en) System and method for producing transferable, modular web pages
Libby Introducing Dart Sass
US11868701B1 (en) Template for creating content item