JP6978863B2 - Gui上に表示されたオブジェクトの色の生成 - Google Patents

Gui上に表示されたオブジェクトの色の生成 Download PDF

Info

Publication number
JP6978863B2
JP6978863B2 JP2017125154A JP2017125154A JP6978863B2 JP 6978863 B2 JP6978863 B2 JP 6978863B2 JP 2017125154 A JP2017125154 A JP 2017125154A JP 2017125154 A JP2017125154 A JP 2017125154A JP 6978863 B2 JP6978863 B2 JP 6978863B2
Authority
JP
Japan
Prior art keywords
color
user
icon
dialogue operation
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017125154A
Other languages
English (en)
Other versions
JP2018041441A (ja
Inventor
デルフィーノ クリストフ
プラデット・ハムマニ アマル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2018041441A publication Critical patent/JP2018041441A/ja
Application granted granted Critical
Publication of JP6978863B2 publication Critical patent/JP6978863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/18Manufacturability analysis or optimisation for manufacturability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Architecture (AREA)
  • Software Systems (AREA)

Description

本発明は、コンピュータプログラム及びシステムの分野に関し、より具体的には、グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトの色を生成するための方法、システム、およびプログラムに関する。
オブジェクトの設計、エンジニアリング、製造のため、多数のシステムおよびプログラムが市場に提供されている。CADは、コンピュータ支援設計(Computer−Aided Design)の略語であり、例えば、オブジェクトを設計するためのソフトウェア・ソリューションに関する。CAEは、コンピュータ支援エンジニアリング(Computer−Aided Engineering)の略語であり、例えば、将来の製品の物理的挙動をシミュレーションするためのソフトウェア・ソリューションに関する。CAMは、コンピュータ支援製造(Computer−Aided Manufacturing)の略語であり、例えば、製造工程および動作を定義するためのソフトウェア・ソリューションに関する。このようなコンピュータ支援設計システムにおいて、グラフィカル・ユーザ・インターフェースは、技術の効率に関して、重要な役割を果たす。これらの技術は、製品ライフサイクル管理(Product Lifecycle Management: PLM)システムに組み込むことができる。PLMとは、企業が、拡張エンタープライズの概念全体にわたって、製品データを共有し、共通の工程を適用し、構想に始まり製品寿命の終わりに至る製品開発のための企業知識を活用するのを支援するビジネス戦略を指す。ダッソー・システムズが提供するPLMソリューション(製品名CATIA、ENOVIA、DELMIA)は、製品エンジニアリング知識をオーガナイズするエンジニアリング・ハブ、製品エンジニアリング知識を管理する製造ハブ、およびエンジニアリング・ハブと製造ハブの両方に対するエンタープライズ統合と接続を可能にするエンタープライズ・ハブを提供する。全てのシステムは、製品、工程、リソースを結ぶオープンなオブジェクトモデルを提供し、最適化された製品定義、製造準備、生産およびサービスを推進する、動的な知識ベースの製品作成および意思決定支援を可能にする。
グラフィックエディタやモデル化オブジェクトエディタなどのソフトウェアは、カラーチューザーとも呼ばれるカラーピッカーをユーザに提供する。カラーピッカーは、色のプロパティを変更したり、色を変更したりするための、ボタン、スライダ、入力フィールドなどのグラフィックツールを含む。別のパネルや、ボタンの操作後に表示されるコンテキストメニューによって、これらのカラーピッカーにアクセスできる。
しかし、公知のカラーピッカーにはいくつかの欠点がある。第1に、特にパラメータをカスタマイズする際、適切な色を設定して取得するのに必要なユーザ操作の数が重要である可能性がある。タッチ感知式の環境、例えば、タブレットのタッチ感知スクリーン上では、色を設定するための対話操作の数を減らすことが非常に重要である。第2に、公知のカラーピッカーは、複数のコマンドを表示するため、グラフィカル・ユーザ・インターフェース上、すなわちスクリーン上において、無視できないほどのスペースを使用する。一般に、タッチ感知装置、例えばタブレットは、限られたサイズのディスプレイしかもたない。さらに、コマンドを使用するための操作はタッチ感知式の環境には適さず、色のパラメータを設定する際に多くの入力エラーが発生する可能性がある。ユーザは、すべてのパラメータのすべての調整を実行するために、同じコマンドを数回トリガする必要がある。
こうした背景において、グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトの色の設定を改善する必要性が依然として存在する。
したがって、コンピュータによって実施される、グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトの色を生成するための方法が提供される。本方法は、
・グラフィカル・ユーザ・インターフェース上に、それぞれが色に関連付けられたアイコンの組を表示するステップと、
・前記アイコンの組のうちの第1のアイコンに対する第1のユーザ対話操作を検出するステップと、
・少なくともスライドを含む第2のユーザ対話操作を検出するステップと、
・前記第1のアイコンに関連付けられた第1の色のパラメータの値を、前記第2のユーザ対話操作によって変更するステップと、
・前記変更したパラメータの値を有する前記第1の色である、第1の新たな色を算出するステップとを含む。
本方法は、以下のうちの1つまたは複数を含んでいてもよい。
・第2の色と関連付けられた前記アイコンの組のうちの第2のアイコンに対する第3のユーザ対話操作を検出するステップと、前記第1の新たな色と前記第2の色をマージするステップにより第2の新たな色を算出するステップ。
・前記第2の新たな色を算出する前に、少なくともスライドを含む第4のユーザ対話操作を検出するステップと、前記第2の色のパラメータの値を変更するステップであって、前記値の選択が前記第2のユーザ対話操作によって行われる、変更するステップ。
・前記第2のユーザ対話操作は、タッチおよび前記タッチから始まるスライドを含み、前記スライドの向きは略水平である。
・前記第2のユーザ対話操作は、タッチおよび前記タッチから始まるスライドを含み、前記スライドの向きは略垂直である。
・前記スライドの1つの向きは、前記第1の色の1つのパラメータに関連付けられている。
・前記アイコンの組のうちの第1のアイコンに対する第1のユーザ対話操作を検出するステップは、前記アイコンの組のうちの第1のアイコンに対する第1のユーザタッチを検出するステップと、前記第1のユーザタッチの継続時間が所定の時間を超えたと判定するステップと、前記第1のユーザタッチが終了したステップを検出するステップと、前記第1のユーザタッチが終了したステップを検出したときに前記第1のアイコンに関連付けられた前記第1の色を選択するステップとを含む。
・前記アイコンの組を表示する前に、前記グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトを選択するステップと、前記新たな色が算出された後に第5のユーザ対話操作を検出するステップと、前記選択したオブジェクトに対し前記新たな色を適用するステップ。
・新たな色の算出は前記第2のユーザ対話操作が検出されている間にリアルタイムに実行され、さらに、リアルタイムに算出された、前記算出された新たな色を用いて、前記アイコンの組における前記第1のアイコンを描画するステップを含む。
・前記算出した新たな色を用いて第3のアイコンを描画するステップ。
さらには、前記方法を実行するための命令を含むコンピュータプログラムが提供される。
さらには、前記コンピュータプログラムを記録したコンピュータ読み取り可能記憶媒体が提供される。
さらには、当該コンピュータプログラムを記録したメモリに接続されたプロセッサと、グラフィカル・ユーザ・インターフェースとを備えるシステムが提供される。
本方法の一例のフローチャートの第1の部分を示す。 図1と同じ例のフローチャートの第2の部分を示す。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 図1〜2の例のユーザ動作を説明する図である。 カラーホイールを示す。 カラーホイールを示す。 カラーホイールを示す。 カラーホイールを示す。 ユーザ入力の例のフローチャートを示す。 本発明を実行するシステムの一例を示す。 グラフィカル・ユーザ・インターフェースの一例を示す。 本発明を実行するためのユーザ対話操作(UI:user interaction)の組み合わせの例を示す。
図1および2のフローチャートを参照して、コンピュータによって実施される、グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトの色を生成するための方法を提案する。このような方法は、タッチ感知ディスプレイ上や、少なくともタッチ感知触覚装置を用いた色の設定を改善する。
特に、本発明は、3Dモデル化オブジェクト、または2Dオブジェクト、より一般的には、CADシステム、グラフィクスエディタプログラムなどのコンピュータプログラムによって表示される任意のオブジェクトの寸法ジオメトリにおける色特性の変更を容易にする。本発明は、ユーザが1回のホールドで、例えばタッチ感知ディスプレイから指を持ちあげることなく、色特性をカスタマイズすることを可能にする。このように、ユーザは、同じアクションにおいて、色、明るさ、および不透明度を変更できる。ユーザは、新たな混合色を得るために、異なる色をマージすることもできる。
本方法は、コンピュータにより実施される。すなわち、本方法のステップ(あるいは略全てのステップ)が少なくとも1つのコンピュータ、または類似の任意のシステムによって実行される。よって本方法のステップは、コンピュータにより、完全に自動的に、あるいは半自動的に実行される可能性がある。例えば、本方法の少なくともいくつかのステップは、ユーザとコンピュータの対話を通じて始動されてもよい。求められるユーザとコンピュータの対話レベルは、想定される自動性のレベルに応じたものであって、ユーザの要望を実装する必要性との間でバランスをとるものとしてもよい。例えば、このレベルは、ユーザが設定し、かつ/あるいは、予め定義されていてもよい。
例えば、色のパラメータの値の変更は、スライドを含むタッチであり得るユーザ対話操作によって実行される。ユーザはパラメータ値を変更するために、1本の指でタッチ感知ディスプレイに触れ、その指を、触れた位置からスライドさせる。タッチ、タップ、およびスライドは、ユーザが本発明を実施するために実行するユーザ対話操作の例である。
本方法のコンピュータによる実施の典型的な例は、この目的に適したシステムを用いて本方法を実行することである。当該システムは、本方法を実行するための命令を含むコンピュータプログラムを記録したメモリに接続されたプロセッサ、および、グラフィカル・ユーザ・インターフェース(GUI)を備えていてもよい。メモリは、データベースを記憶していてもよい。メモリは、そのような記憶に適した任意のハードウェアであり、場合により、物理的に区別可能ないくつかの部分(例えば、プログラム用に1つ、場合によりデータベース用に1つ)を含む。本システムはまた、タッチ感知スクリーン、ペンディスプレイ、ペンタブレットなどであり得るタッチ感知触覚装置を提供するが、これらに限定されるものではない。タッチ感知スクリーンあるいはペンディスプレイは、グラフィカル・ユーザ・インターフェースを表示することができる。
生成された色は、2Dオブジェクト、3Dオブジェクト(2Dまたは3Dオブジェクトは、モデル化オブジェクトとすることができる)、あるいはピクチャなどであり得るオブジェクトに対して適用することができるが、これらに限定されない。より一般的には、生成された色は、グラフィカル・ユーザ・インターフェース上に描画あるいは表示される任意の種類のオブジェクトに適用することができる。生成された色を適用するとは、オブジェクトの描画が変更されることを意味する。オブジェクト(またはオブジェクトの少なくとも一部)は、生成された色で描画される。
色を適用するオブジェクトはデータベースに記憶できる。「データベース」とは、検索および取得用に最適化されたデータ(すなわち情報)の任意の集合(例えば所定の構造化言語、例えばSQLに基づく、例えばリレーショナルデータベース)を意味する。データベースは、メモリに格納されると、コンピュータによる迅速な検索および取得を可能にする。データベースは、実際、様々なデータ処理動作と連動して、データの記憶、取得、修正、および削除を容易にするよう構造化されている。データベースは、それぞれ1つまたは複数のフィールドからなるレコードに分割可能な1つのファイルあるいはファイルのセットからなっていてもよい。フィールドは、データ記憶の基本単位である。ユーザは、主としてクエリによってデータを取得してもよい。ユーザは、使用されているデータベース管理システムのルールに従って、キーワードとソートコマンドを用いて、多数のレコードにおけるフィールドを、迅速に、検索、再配置、グループ化、および選択し、特定の集積データに関するレポートを取得または作成することができる。
本方法は、一般に、オブジェクトを操作する。オブジェクトは、例えばデータベースに格納されたデータによって定義される任意のオブジェクトである。さらには、「オブジェクト」という用語は、データそのものも指す。システムの種類に応じて、異なる種類のデータによってオブジェクトが定義されてもよい。実際、システムは、CADシステム、CAEシステム、CAMシステム、PDMシステム、および/またはPLMシステムのうちの任意の組み合わせであってもよい。本システムは、オブジェクトを描画するのに適した、グラフィックエディタのような、任意のアプリケーションを実行してもよい。
それら異なるシステムにおいて、オブジェクトは、対応するデータによって定義される。例えば、CADシステムではCADオブジェクトとCADデータ、ピクチャエディタでは画像オブジェクトと画像データ、などである。しかしながら、これらのシステムは互いに排他的ではなく、モデル化オブジェクトは、これらのシステムの任意の組み合わせに対応するデータによって定義することができる。
CADシステムは、少なくとも、CATIAのようなモデル化オブジェクトのグラフィック表現に基づくモデル化オブジェクトの設計に適した任意のシステムをも意味する。この場合、モデル化オブジェクトを定義するデータは、モデル化オブジェクトを表現可能にするデータを含む。CADシステムは、例えば、辺や線を用い、また、場合により面や曲面を用いて、CADモデル化オブジェクトの表現を提供してもよい。線、辺、あるいは面は、例えば、非一様有理Bスプライン(NURBS)など、様々な様式で表現されてもよい。具体的には、CADファイルは仕様を含み、その仕様に基づきジオメトリが生成可能であり、よって表現が生成可能となる。モデル化オブジェクトの仕様は1つまたは複数のCADファイルに格納されていてもよい。CADシステムでモデル化オブジェクトを表現するファイルの典型的なサイズは、一部分あたり1メガバイトの範囲である。また、モデル化オブジェクトは、典型的には、数千の部分の集合体であってもよい。
CADの文脈において、オブジェクトは、典型的には、モデル化オブジェクト、あるいは、さらに3Dモデル化オブジェクト、例えば、一つの部品や部品の集合体などの製品、あるいは製品の集合体を表現するものであってもよい。「3Dモデル化オブジェクト」は、3D表現が可能なデータによってモデル化される任意のオブジェクトを意味する。3D表現は、その部品をすべての角度から見ることを可能にする。たとえば、3Dで表現された3Dモデル化オブジェクトは、その軸のうちの任意の軸、あるいは、その表現が表示された画面中の任意の軸を中心に、処理して回転させることが可能である。これは、特に、3Dモデル化されていない2Dアイコンについては除外される。3D表現の表示は、設計を容易にする(すなわち、設計者が作業を達成するスピードを統計的に速める)。製品の設計は製造工程の一部であるから、これによって当該産業における製造工程が迅速化する。
本方法において想定されるあらゆる3Dモデル化オブジェクトは、CADソフトウェア・ソリューションやCADシステム等を用いた仮想的設計の完了後に実世界において製造される、(例えば、機械)部品や、部品の集合などの製品のジオメトリを表現してもよい。CADソフトウェア・ソリューションは、航空宇宙、建築、建設、消費財、ハイテク機器、産業機器、輸送、海洋、および/または海洋石油/ガス生産、または交通を含む、限定されることのない様々な産業分野において製品の設計を可能にする。本方法において想定される3Dモデル化オブジェクトは、このように、地上車両の部品(例えば、自動車および軽トラック機器、レーシングカー、オートバイ、トラックおよびモーター機器、トラック、バス、電車を含む)、航空車両の部品(例えば、航空機体機器、航空宇宙機器、推進機器、防衛製品、航空路線機器、宇宙機器を含む)、海軍車両の部品(例えば、海軍用機器、商業用船舶、オフショア機器、ヨットおよび作業船、船舶用機器を含む)、一般的な機械部品(例えば、工業用製造機械、大型移動機械または機器、設置機器、産業機器製品、加工金属製品、タイヤ製造製品を含む)、電気機械部品または電子部品(例えば、家電、セキュリティおよび/または制御および/または計装製品、コンピューティングおよび通信機器、半導体、医療装置および設備を含む)、消費者製品(例えば、家具、家庭用および庭用製品、レジャー用品、ファッション用品、耐久消費財小売用品、織物類小売用品を含む)、および/または包装(例えば、食品および飲料およびたばこ、美容およびパーソナルケア、家庭用製品包装を含む)などのように、任意の機械的部品であり得る工業製品を表してもよい。
PLMシステムは、物理的な、製造された製品(または製造される予定の製品)を表すモデル化オブジェクトの管理に適した任意のシステムを指す。PLMシステムでは、モデル化オブジェクトは、このように、物理的な物体の製造に適したデータによって定義される。これらは、典型的には、寸法の値および/または公差の値であってもよい。物体を正しく製造するために、実際、このような値を用いるのが望ましい。
CAMソリューションとは、製品の製造データを管理するのに適した、ハードウェアのソフトウェアである、あらゆるソリューションをも指す。製造データは、一般に、製造する製品、製造工程、および必要なリソースに関するデータを含む。CAMソリューションは、製品の製造工程全体を計画し最適化するのに用いられる。例えば、実現可能性、製造工程の期間、または製造工程における特定のステップで使用され得るリソース、例えば特定のロボットの数に関する情報をCAMユーザに提供することができる。これにより、管理や必要な投資についての決定を可能にする。CAMは、CAD工程、および、場合によりCAE工程に続く工程である。このようなCAMソリューションは、ダッソー・システムズにより、DELMIA(登録商標)として提供されている。
CAEソリューションとは、モデル化オブジェクトの物理的挙動の分析に適した、ハードウェアのソフトウェアである、あらゆるソリューションをも指す。よく知られており広く用いられているCAE技術は有限要素法(Finite Element Method:FEM)であり、これは、典型的には、モデル化オブジェクトを、物理的挙動を方程式によって計算しシミュレーションできる要素に分割することを含む。このようなCAEソリューションは、ダッソー・システムズにより、SIMULIA(登録商標)として提供されている。成長するCAE技術のもう1つは、CADジオメトリデータを使用せずに異なる物理分野の複数の要素で構成される複雑なシステムのモデリングと解析を行うことを含む。CAEソリューションはシミュレーションを可能にし、それにより、製造する製品の最適化、改善および検証を可能にする。このようなCAEソリューションは、ダッソー・システムズにより、DYMOLA(登録商標)として提供されている。
PDMはProduct Data Management(生産データ管理)の略である。PDMソリューションとは、特定の製品に関するすべての種類のデータを管理するのに適した、ハードウェアのソフトウェアである、あらゆるソリューションを指す。PDMソリューションは、製品のライフサイクルにかかわるすべての関係者によって使用されてもよい。これには、主として技術者のほか、プロジェクトマネージャー、財務担当者、営業担当者、およびバイヤーも含まれる。PDMソリューションは、一般に、製品指向のデータベースに基づく。これにより、関係者が製品に関する一貫したデータを共有することが可能になり、これにより、関係者が異なるデータを用いるのを防止する。このようなPDMソリューションは、ダッソー・システムズにより、ENOVIA(登録商標)として提供されている。
図13は、本発明を実施するためのシステムの一例を示すものであって、当該システムは、クライアントコンピュータシステム、例えばユーザのワークステーションである。
本例のクライアントコンピュータは、内部通信バス1000に接続された中央演算処理装置(CPU)1010、および同じくバスに接続されたランダムアクセスメモリ(RAM)1070を備える。クライアントコンピュータは、さらに、バスに接続されたビデオランダムアクセスメモリ1100と関連付けられたグラフィックス処理装置(GPU)1110を備える。ビデオRAM1100は、当該技術分野において、フレームバッファとしても知られる。大容量記憶装置コントローラ1020は、ハードドライブ1030などの大容量記憶装置へのアクセスを管理する。コンピュータプログラムの命令及びデータを具体的に実現するのに適した大容量メモリ装置は、例として、EPROM、EEPROM及びフラッシュメモリ装置のような半導体メモリ装置、内蔵ハードディスクやリムーバブルディスクなどの磁気ディスク、光磁気ディスク、およびCD−ROMディスク1040を含む、全ての形式の不揮発性メモリを含む。前述のいずれも、特別に設計されたASIC(特定用途向け集積回路)によって補完されてもよいし、組み入れられてもよい。ネットワークアダプタ1050は、ネットワーク1060へのアクセスを管理する。クライアントコンピュータはまた、カーソル制御装置、キーボードなどの触覚装置1090を含んでいてもよい。カーソル制御装置は、ユーザがディスプレイ1080上の任意の所望の位置にカーソルを選択的に位置させることを可能にするために、クライアントコンピュータ内で使用される。さらに、カーソル制御デバイスは、ユーザが様々なコマンドを選択し、制御信号を入力することを可能にする。カーソル制御装置は、システムに制御信号を入力するための多数の信号生成装置を含む。典型的には、カーソル制御装置はマウスであってもよく、マウスのボタンは信号を生成するために使用される。あるいは、または追加的に、クライアントコンピュータシステムは、感知パッドおよび/またはタッチ感知ディスプレイを備えてもよい。
感知パッド(例えばグラフィックタブレット)およびタッチ感知ディスプレイ(例えばタッチスクリーン)は、コンピュータシステムと対話操作をするための触覚装置を提供する。
コンピュータプログラムは、コンピュータによって実行可能な命令を含んでいてもよく、命令は、上記システムに方法を実行させるための手段を含む。プログラムは、システムのメモリを含む任意のデータ記憶媒体に記録可能であってもよい。プログラムは、例えば、デジタル電子回路、またはコンピュータハードウェア、ファームウェア、ソフトウェア、またはそれらの組み合わせで実装されてもよい。プログラムは、例えばプログラマブルプロセッサによる実行のための機械読み取り可能な記憶装置に具体的に実現された製品のような装置として実装されてもよい。方法ステップは、プログラム可能なプロセッサが命令のプログラムを実行し、入力データを操作して出力を生成することによって方法の機能を実行することによって実行されてもよい。したがって、プロセッサは、データ記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信し、また、それらにデータおよび命令を送信するようにプログラム可能であってもよく、またそのように接続されていてもよい。アプリケーションプログラムは、高水準の手続き型またはオブジェクト指向のプログラミング言語で、または必要に応じてアセンブリ言語または機械語で実装されていてもよい。いずれの場合も、言語はコンパイラ型言語またはインタープリタ型言語であってもよい。プログラムは、フルインストールプログラムまたは更新プログラムであってもよい。いずれの場合も、プログラムをシステムに適用すると、本方法を実行するための指示が得られる。
図1および図2に戻って、本方法の一例について説明する。図3〜図11は、本方法を用いて色を生成するためのグラフィカルツールと、本方法で実行されるユーザ対話操作の例を表す。
ステップS100において、グラフィカル・ユーザ・インターフェース(GUI)上でオブジェクトが選択される。選択されるオブジェクトは、GUIに表示される。オブジェクトの表示は描画の結果である。描画は、コンピュータプログラムによって、2次元(2D)または3次元(3D)モデル(または、集合的にシーンファイルと呼ぶことができるものにおけるモデル)のデータから画像を生成する工程である。オブジェクトは、表示が可能な任意のデータである。例えば、画像はオブジェクトであり、GUI上の画像表示はユーザによって選択されてもよい。
GUIは、本方法を実行するコンピュータシステムによってユーザに表示される。GUIは、ユーザがコンピュータシステムとの対話操作を可能にするインターフェースである。GUIは、様々なタイプのグラフィックツールを示すことができる。例えば、CADシステムのGUIは、オブジェクトの3Dでの方向付けを容易にしたり、編集された製品の動作のシミュレーションを起動したり、あるいは表示された製品の様々な属性を描画したりするための、グラフィックツールを含んでいてもよい。カーソル、例えば触覚装置1090のカーソルは、一般に、例えばGUIとの対話操作を行うために使用される。対話操作は、GUIを表示するタッチ感知ディスプレイ上で、直接実行することができる。例えば、典型的には、ユーザの指やスタイラスのような付属物が、GUIとの対話操作に用いられる。なお、本発明は、ユーザ入力またはユーザ対話操作を受け入れる任意の種類のGUI上で実行可能である。
図14は、標準的なメニューバー2110,2120、ならびに底部および側面のツールバー2140,2150を有する典型的なCADのようなインターフェースの一例を示す。このようなメニューバーおよびツールバーは、ユーザが選択可能なアイコンのセットを含み、各アイコンは、当技術分野で知られているように、1つまたは複数の操作または機能に関連付けられている。これらのアイコンのいくつかは、GUI2100に表示された3Dモデル化オブジェクト2000の編集および/または作業に適合したソフトウェアツールに関連付けられている。ソフトウェアツールはワークベンチに分類することができる。各ワークベンチは、ソフトウェアツールのサブセットを含む。特に、ワークベンチの1つは、モデル化製品2000のジオメトリ的特徴を編集するのに適した編集ワークベンチである。操作中、設計者は、例えば、オブジェクト2000の一部を予め選択し、次いで、適切なアイコンを選択することによって、操作を開始する(例えば、寸法、色などを変更する)か、ジオメトリ的制約を編集することができる。例えば、典型的なCAD操作は、スクリーン上に表示された3Dモデル化オブジェクトのパンチングまたは折り畳みのモデリングである。GUIは、例えば、表示された製品2000に関連するデータ2500を表示してもよい。図14の例では、「特徴ツリー」として表示されたデータ2500およびそれらの3D表現2000は、ブレーキキャリパおよびディスクを含むブレーキ部品に関するものである。GUIは、編集された製品の動作のシミュレーションを起動するため、または表示された製品2000の様々な属性を描画するために、例えばオブジェクトの3D定位を容易にするための様々なタイプのグラフィックツール2130,2070,2080をさらに示してもよい。カーソル2060は、ユーザがグラフィックツールを用いて対話操作ができるように、触覚デバイスによって制御されてもよい。
オブジェクトの選択は、当該技術分野で知られているように実行される。例えば、ユーザは、表示されたオブジェクトをタップする。そうでない場合、ユーザは、オブジェクトのグラフィック表現との対話操作を生成するために、指またはスタイラスのような付属物を使用するが、これらに限定されない。対話操作はタッチ感知ディスプレイを介して行われ、システムによって、表示されたオブジェクトの選択と解釈される。
次に、ステップS102において、オブジェクトの選択の結果としてアイコンの組が表示される。例えば、ステップS100におけるオブジェクトに対するタップは、システムによって、オブジェクトを選択すると同時にアイコンの組を表示するためのコマンドとして解釈されてもよい。
図3は、表示されるアイコンの組30の一例を示す。このアイコンは2Dの円盤状であるが、アイコンは円盤状に限定されない。アイコンは3Dアイコンであってもよい。例えば、これらは3Dシーンにおいて表示される3Dオブジェクトである。アイコンは、3D表現を模倣するために斜視図で表された2Dアイコンであってもよい。
アイコン30は、これもGUI上に表示される円形クラウン32の2D部分上に配置される。円形クラウンの当該部分は3Dオブジェクトであってもよい。円形クラウンの当該部分は、3D表現を模倣するために斜視図で表された2Dオブジェクトであってもよい。円形クラウン32の2D部分は、その上にアイコンが配置されるレイアウトとしてもよく、オブジェクトは、この特定の形状に限定されない。
図3の例では、ツールバー10のアイコン20に対するユーザ選択が行われた後、アイコンの組30と円形クラウンの部分32が同時に表示される。例えば、ユーザはアイコン20上に指を置く。例えばステップS100において、オブジェクトの選択の結果としてツールバー10が表示される。このように、ステップS100でのオブジェクトのユーザ選択は、ツールバー10の表示を起動することができ、これによりユーザは、例えばボタン20上をタップすることにより、カラー設定モードを選択することができる。
アイコンの組30は、GUIの第1の位置から実質的に等距離に配置されていてもよい。この第1の位置は、典型的には、GUIとのユーザ対話操作、例えばアイコン20のユーザ選択から定義される。
オブジェクト10、20、30の2D表現は、3Dシーン中に表示してもよい。2Dオブジェクト10、20、30は、3Dシーンのビュー上にあり、すなわち、シーンおよびオブジェクトが、表示のために投影される2D平面上に表示される。
アイコンの組の各アイコンは、色に関連付けられている。関連という用語は、アイコンと色の間に論理的な結びつきがあることを意味する。言い換えれば、アイコンの組うちのあるアイコンに対するユーザの対話操作は、そのアイコンが関連付けられている色が関与する操作を起動する可能性が高い。例えば、図3のアイコンAは、灰色に関連付けられている。アイコンDは黄色に関連付けられている。図3では、アイコンの組のアイコン(7つのアイコンA〜G)は、それぞれ、他のアイコンの色と重複しない1つの色に関連付けられている。なお、2つ以上のアイコンが同じ1つの色に関連付けられている可能性もある。さらに図3では、各アイコンは、それが関連づけられている色で描画される。例えば、アイコンAは灰色の円盤として描画され、アイコンDは黄色の円盤として描画される。
図1のフローチャートに戻り、ステップS110において、第1のユーザ対話操作が、アイコンの組のうちの第1のアイコン上で検出される。ユーザ対話操作は、ステップS100を参照して既に説明したのと同じ方法で行うことができる。ユーザ対話操作は、タッチであってもよく、すなわち、ユーザは、時間tの間、付属物をアイコン上に置く。言い換えれば、付属物とタッチスクリーンとの間の接触は、tの間、維持される。
図4は、ステップS110の一例を示している。ユーザは、指で、緑色に関連付けられたアイコンEをタッチする。第1のユーザ対話操作は、アイコンのグラフィック表現に対してのみ実行することができ、すなわち、ユーザ対話操作の位置は、アイコンによって画定される領域に属する。第1のユーザ対話操作は、アイコンの領域を拡張するGUIのゾーン上で実行されてもよい。このゾーンで実行されるユーザ対話操作は、アイコンによって画定された領域上で行われたものとして解釈される。
ステップS112では、アイコンの組のうちの当該アイコンに対する第1のユーザ対話操作の継続時間が所定の時間t1以上であるか否かが判定される。
第1のユーザ対話操作の継続時間がt1以上である場合、ユーザ対話操作はタッチであり、タッチされたアイコンに関連付けられた第1の色が選択される(S116)。第1の色の選択(S116)は、第1の色が、色を必要とする後続のステップで使用できることを意味する。例えば、選択された第1の色を定義するパラメータは、次の用途のためのメモリに記憶されている。
第1のユーザ対話操作の継続時間がt1よりも短い場合、ユーザ対話操作はタップであり、タップされたアイコンに関連付けられた第1の色が、ステップS100で選択されたオブジェクトに適用される。色の適用とは、第1のアイコンに関連付けられた色に応じて、選択されたオブジェクトの描画が変更されることを意味する。例えば、選択されたオブジェクトは、(部分的に、または全体が)この色で着色されていてもよい。
したがって、ユーザがタッチを行った場合(第1のユーザ対話操作の継続時間がt1以上)、色の選択が生じる。また、ユーザがタップを行った場合(第1のユーザ対話操作の継続時間がt1未満)、それ以前に選択されたオブジェクトに色が適用される。
本方法を実行するシステムは、時間t1が経過したことを示す信号をユーザに提供してもよい。例えば、アイコンの描画が変更されたり、システムが付属物を介してユーザに振動を送ったり、あるいはシステムが音声を発したりしてもよい。
第1色の選択は、第1ユーザタッチの終了の検出(S114)が終了した後に実行されてもよい。これにより、ユーザは、選択される色に同意する旨の確認をシステムに対して提供することができる。
図5は、アイコンEに関連付けられた色の選択が有効となった後のアイコンの組の表示の一例を示す。この例では、アイコンEに関連付けられた緑色が選択されたことを視覚的に示すために、ぼかしゾーン50がアイコンEを囲んでいる。
さらに図5を参照すると、2つの新しい視覚インジケータ52、54も、ぼかしゾーン50とともに表示されている。この例では、それらの表現はアイコンEの近くに表示される。それらは、ぼかしゾーン上に表される。これらの2つの表現の目的は、ユーザが行うことができる新たなユーザ対話操作をユーザに示すことである。
図1に戻って、ステップS120において、第2のユーザ対話操作が検出される。第2のユーザ対話操作は、少なくともスライドを含む。スライドという用語は、タッチ感知ディスプレイ上の第1の位置から第2の位置へのユーザ対話操作の変位を意味する。例えば、ユーザは、1本の指をタッチ感知ディスプレイ上に置き、その指をタッチ感知ディスプレイ上で移動させる。指は継続的にタッチ感知ディスプレイに接触しており、システムがGUI上の第1の位置と第2の位置の間で第2のユーザ対話操作の終了を検出することはない。図1の例では、第2のユーザ対話操作は、タッチとスライドを含む。スライドは、タッチ感知ディスプレイ上のタッチの位置から開始し、第2のユーザ対話操作の継続時間は、所定の継続時間以上である。
第2のユーザ対話操作は、第1の対話操作と同じ付属物を用いて実行されてもよいし、異なるものを用いて実行されてもよい。例えば、ユーザは、色を選択するのに用いたのと同じ指で第2のユーザ対話操作を実行することができる。任意の付属物の組合せが可能である。
ステップS122では、第2のユーザ対話操作のスライドのGUI上での向きが検出される。第2のユーザ対話操作のスライドの向きは、GUI上でのスライドの第2の位置に対する、GUI上でのスライドの第1の位置の相対位置によって決定される。スライドの向きの検出は、以下に説明するように、スライドの方向の検出をさらに含んでいてもよい。
興味深いことに、第2のユーザ対話操作は、第1のユーザ対話操作と連続し得る。第2のユーザ対話操作は、第1のユーザ対話操作の終了が検出されることなく開始される。この場合、ステップS112の後、直ちに(すなわち、ステップS114での検出を行うことなく)ステップS116での選択が行われる。例えば、ユーザが、色を選択するために第1の位置の第1のアイコンに指を置き(すなわち、第1のユーザ対話操作がタッチである)、そして、色が選択されると、ユーザは第1の位置(これはタッチの位置である)から第2の位置へと指をスライドさせる。よってスライドは第2のユーザ対話操作である。
次に、ステップS124において、第1のアイコンに関連付けられた第1の色のパラメータの値が変更される。色のパラメータは、不透明度、色相、明度、輝度、彩度(chroma、colorfulness,saturation)などの任意の色の外観パラメータを含むことができるが、これらに限定されない。パラメータの値が変更され、その変更は、第2のユーザ対話操作のスライドに応じて実行される。
スライドの所与の向きは、色のパラメータを選択し、この特定のパラメータの値を変更することを可能にする。例えば、向きが実質的に水平のスライドは、選択された色(ステップS122での第1の色)の明るさのパラメータの選択を起動する。別の例として、向きが実質的に垂直なスライドは、選択された色の不透明度のパラメータを選択する。その他のスライドの向きも可能であり、任意のパラメータが任意のスライドの向きに関連付けられていてよい。ユーザ対話操作であるスライドの向きは、基準(x,y)のフレーム、例えば、GUIの基準フレーム、本発明を実施する携帯機器(スマートフォン、タブレット)の基準フレームなどを参照して決定される。
スライドの向きの決定は、さらに、スライドの方向の検出を含んでいてもよい。例えば、垂直方向のスライドは、上から下へと実行することができ、したがって、DOWNと呼ばれる方向を有する。逆に、垂直方向のスライドは、下から上へと実行することができ、したがって、UPと呼ばれる方向を有する。別の例として、水平方向のスライドは、左から右へと実行することができ、したがって、RIGHTと呼ばれる方向を有する。逆に、水平方向のスライドは、右から左へと実行することができ、したがって、LEFTと呼ばれる方向を有する。したがって、垂直方向の向きは、UP方向またはDOWN方向である可能性があり、水平方向の向きは、RIGHT方向またはLEFT方向である可能性がある。
スライドの距離(スライドの第1の位置と第2の位置との距離)により、パラメータの値を変更することができる。実際には、値は値の範囲に属する。当該範囲における各値はパラメータに関連付けることができ、一度に1つの値がパラメータに関連付けられる。値の範囲は、離散値とは対照的に、連続した値の集合を形成してもよい。値という用語は、データの同義語である。値の範囲は有限または無限とすることができる。
パラメータの値の変更は、当該技術分野で知られているように実行される。パラメータ値の増加または減少は、第2のユーザ対話操作の第1の位置から第2の位置への変位の距離に比例させることができる。距離はユークリッド距離、ピクセル数などであってもよい。
パラメータ値の増加または減少は、スライドの方向に依存してもよい。例えば、UPスライド(向きが垂直で方向が下から上のスライド)は不透明度の値を増加させ、DOWNスライド(向きが垂直で方向が上から下のスライド)はそれを減少させるとしてもよい。別の例として、LEFTスライド(向きが水平で方向が右から左のスライド)は第1の色の輝度の値を減少させ、RIGHTスライド(向きが水平で方向が左から右のスライド)はそれを増加させるとしてもよい。
このように、第2のユーザ対話操作が実行されるとき(すなわち、タッチ感知ディスプレイと付属物との間の接触が検出されている間に)、パラメータ値を変更することができる。このように、第2のユーザ対話操作が検出されなくなると、すなわち、例えばタッチ感知ディスプレイと付属物との間の接触が検出されなくなると、新たなパラメータ値が設定される。
図6は、図5に示されるアイコンEの色の選択の後に実行される第2のユーザ対話操作の例を示す。第2のユーザ対話操作は、例えば、ユーザが一本の指でアイコンEに接触することで開始する。接触はタッチであってもよく、すなわち、接触の継続時間が所定の時間以上である。このように、このタッチの位置が、スライドが開始する第1の位置である。次に、ユーザは、それ以前に選択された色の輝度を増加させるために、指を右に水平にスライドさせる(RIGHTスライド)か、逆に、輝度を減少させるために指を左に動かすことができる(LEFTスライド)。スライドの動きは軸xに略平行であり、スライドは略水平である。略とは、軸xとスライドの向きとの角度が予め定められた角度を超えないことを意味する。例えば、この角度は−45°と+45°との間に含まれる。
図7は、これもアイコンEの色の選択の後に実行される第2のユーザ対話操作の別の例を示す。第2のユーザ対話操作は、図5に示されるアイコンEに対するタッチから開始される。次に、ユーザは、アイコンEに関連付けられた色の不透明度を増加させるために、指を垂直方向上にスライドさせることができる。すなわち、UPスライドが実行される。あるいは、ユーザは不透明度を減少させるために、指を垂直方向下に動かすことができる。すなわち、DOWNスライドが実行される。スライドの動きは軸yに略平行であり、スライドは略垂直である。略とは、軸yとスライドの方向との角度が予め定められた角度を超えないことを意味する。例えば、この角度は−45°と+45°との間に含まれる。
図8は図7の例の別の図である。ユーザは、アイコンEに関連付けられた色の不透明度を上げるために指を上に動かす。興味深いことに、視覚インジケータ52のみが表示され、不透明度が現在変更されていることをユーザに示す。図8の例では、第2のユーザ対話操作の第1の位置80は、アイコンEまたはアイコンEの1つのゾーンでは実行されない。実際には、色の選択(ステップS114、S116)の後、別のアイコンに対して別のユーザ対話操作が実行されない限り、次のユーザ対話操作が選択された色に関するものであることをシステムは知っている。これについては図2を参照して後述する。したがって、第2のユーザ対話操作は、アイコンのゾーン外で実行することができるが、アイコンに関連付けられた色に関係する。これにより、第1のユーザ対話操作の終了の検出後に第2のユーザ対話操作を実行することが可能になる。
図1に戻って、ステップS130では、変更されたパラメータ値が適用された第1の色から新しい色がリアルタイムに算出される。このように前者のパラメータ値が新しいパラメータ値に置き換えられる。リアルタイムに算出されるとは、第2のユーザ対話操作が行われてパラメータの新たな値が得られるとすぐに新たな色が算出されることを意味する。したがって、リアルタイムという用語は、この色の、利用可能なパラメータ値内の応答の提供を保証することではなく、結果を算出するために必要な情報がシステムに利用可能なときに演算結果を表示する能力を指す。
第1アイコンは、算出された新たな色で再描画されてもよい(S132)。再描画はリアルタイムに、すなわち新たな色が算出される度に実行されることが好ましい。したがって、ユーザは、現在のパラメータ値の視覚的なフィードバックを受けることができる。
あるいは、新たな色の表示は、アイコンの組のうちの別のアイコンを用いて実行されてもよい。このアイコンは、好ましくは、本方法で得られた新たな色の記録専用のアイコンである。このアイコンはユーザが定義した色に関連付けられている。例えば、図8のアイコンHは新たな色を表示し(ステップS132)、第1のアイコンの元の描画は変更されていない(アイコンEはまだ緑色で描画されている)。
第2のユーザ対話操作が終了すると、例えば図8の追加ボタン82をクリックするユーザ操作によって、最後に算出された新たな色が記録される。これにより、生成された色を後の段階で再利用することが可能になる。記録された新たな色は、オブジェクト、例えば、ステップS100で選択されたオブジェクト、あるいは別のオブジェクトに対して適用することができる。新たな色を適用することは、オブジェクトの少なくとも一部がこの新たな色で再描画されることを意味する。
ここで図2を参照して、生成された色が2つの色のマージから得られる、本発明の第2の例について説明する。これら2つの色のうちの1つは、図1を参照して説明した方法を実行することによって得ることができる。
ステップS140において、第3のユーザ対話操作が、アイコンの組のうちの第2のアイコン上で検出される。例えば、第3のユーザ対話操作はタッチである。ステップS140は、ステップS110と同様である。第2のアイコンは、ステップS110の第1のアイコンと同じであってもよいし、同じでなくてもよい。第2のユーザ対話操作がまだ検出されている間に第3のユーザ対話操作が実行される。したがって、システムは、色のマージが実行されることを知っている。
ユーザは、第3のユーザ対話操作を実行する前に第2のユーザ対話操作を終了した場合、ステップS110〜S116を参照して説明したように、アイコンの組のうちの1つのアイコンにタッチすることによって色を選択することができる。また、ユーザは、ステップS134で記録された色を呼び出すこともできる。例えば、ユーザは、ユーザが定義した色に関連付けられたアイコン80にタッチする。どちらの場合も、ユーザ対話操作が、第3のユーザ対話操作に加えて検出される。
ユーザが第1の色の選択のみを行った場合、すなわち、ステップS120〜S134を実行しなかった場合、第1のユーザ対話操作の終了を検出(S114)する前にステップS140が実行される。このように、システムは、第1の色と第2の色(変更されているか、あるいは変更されていない)をマージすることによって新たな色が算出されることを知っている。
次に、ステップS142において、第3のユーザ対話操作が所定の時間t2を超えたと判定する。ステップS142は、ステップS112と同様である。時間t2は、t1と等しいか、t1より小さいか、あるいはt1より大きい。実際には、t1およびt2は同じ値を有し、ユーザにとって、第1と第3のユーザ対話操作の間に違いはない。
図9は、ステップS142の例を示している。ユーザは、アイコンEをタッチしながら、オレンジ色に関連付けられたアイコンCを指でタッチする。
次に、ステップS144において、第3のユーザ対話操作の終了が検出される。ステップS144は、ステップS114と同様である。
次に、ステップS146において、第2のアイコンに関連付けられた第2の色が選択される。これは、ステップS116について説明したのと同じ方法で行われる。
本方法のこのステップでは、ステップS130で算出された第1の新たな色を、ステップS146で選択された第2のアイコンに関連付けられた第2の色とマージすることによって、新たな色を算出することができる。ここでは、算出された新たな色は、ユーザ対話操作によって選択された、変更された色と変更されていない色とのマージである。
あるいは、本方法のこのステップでは、ステップS116で選択された第1のアイコンに関連付けられた第1の色を、ステップS146で選択された第2のアイコンに関連付けられた第2の色とマージすることによって、新たな色を算出してもよい。この場合、算出された新たな色は、ユーザ対話操作によって選択された、変更されていない2つの色のマージである。算出されたこの新たな色は、ステップS130〜S134を参照して説明したように表示することができる。
図10は、2つの色が選択された状況を示す。アイコンEおよびCは、どちらも、アイコンEおよびCに関連付けられた緑色およびオレンジ色の選択の視覚的表示を提供するために、ぼかしゾーンに囲まれている。さらに図10を参照すると、2つの新しいインジケータ52、54も、ぼかしゾーン50とともに表示されている。この例では、インジケータはアイコンDの近くに表示され、ぼかしゾーン50上に表される。別の例では、2つの新しい表現52、54は、最後に選択されたアイコンCのぼかしゾーン56上に表示されるかもしれない。
第2の色が選択されると、ユーザは、選択された第1の色の少なくとも1つのパラメータ値をユーザが変更したかどうかに応じて、第1または第2のユーザ対話操作を解放することができる。システムは、第1の色(変更されているか、あるいは変更されていない)と第2の色(変更されているか、あるいは変更されていない)をマージすることによって新たな色が算出されることを知っている。ユーザが第1または第2のユーザ対話操作を解放すると(例えば、タッチ感知ディスプレイから指を離して接触がなくなると)、第2の色は、ステップS150、S152、S154、およびS160の例における第4のユーザ対話操作によってのみ変更され得る。これらの第4のステップは、この例のスライドが略垂直であり、ユーザによって調整されたパラメータ値が第2の色の不透明度であることを除いて、ステップS120、S122、S124、およびS130と同様である。
ユーザが第1および第2のユーザ対話操作を解放しない場合、選択された第2の色は、第1および第4のユーザ対話操作の両方、または第2および第4のユーザ対話操作の両方を用いて変更され得る。興味深いことに、ユーザは、選択された第2の色の2つのパラメータの値を、例えば2本の指をスライドさせることによって、同時に変更することができる。
次に、ステップS162において、アイコンの組のうちの第2のアイコン(ステップS140〜S146で選択されたアイコン)が、ステップS160で算出された第2の新たな色でリアルタイムに再描画される。ステップS162における再描画は、ステップS132を参照して説明したのと同様である。実際には、ステップS162は、ユーザが第2のアイコンの色の変更を見る必要がなく、むしろステップS170〜S180の結果とし得られた第3の新たな色を見る必要があるときには実行されない。
ステップS170では、ステップS130で算出された第1の新たな色を、ステップS160で算出された第2の新たな色とマージすることによって、第3の新たな色が算出される。2つの色のマージは、当該技術分野で知られているように実行される。2つの色をマージすることは、混色とも呼ばれる。色のマージ(または混色)は、例えば、色の加算混合または色の減法混合を実行することによって行うことができる。
第3の新たな色は、好ましくは、本方法で得られた新たな色の記録専用のアイコンである。したがって、このアイコンはユーザが定義した色に関連付けられている。図10では、アイコンHは、第3の新たな色と関連付けられ、この第3の新たな色でリアルタイムに描画される(S172)。
そして、ステップS180において、ユーザ対話操作の終了が検出される。これにより第3の新たな色の記録が起動される。記録は、ユーザが追加ボタン82をクリックする操作によって実行することもできる。
次に、ステップS182で、第5のユーザ対話操作が検出され、第3の新たな色が、選択されたオブジェクトに適用される。第5のユーザ対話操作は、第3の新たな色に関連付けられたアイコンHに対して実行されてもよい。
図1および図2のフローチャートの例では、選択された色は、アイコンの組に関連付けられた色である。なお、取得して記録した色は、新たな色を生成するのに用いることができる。記録した色は、ユーザが作成した色を表示するために使用されるアイコン、例えば図8および図10を参照して説明したアイコンHに関連付けられる。
図11aから11dは、当該技術分野で知られているようなカラーホイールの例を示す。カラーホイールは、色の関係を表し、原色、二次色、および三次色のマージを算出するのに使用できる。原色、二次色、および三次色は、アイコンの組におけるアイコンに関連付けられていてもよい。
図12は、図1および2に関連して説明した、異なる実施例および代替案を示すフローチャートである。図12から明らかなように、ユーザ対話操作の多くの組み合わせが実行可能である。図15は、ユーザ対話操作(UI)の異なる組み合わせの例を示す。
本発明の例では、タッチ感知ディスプレイ上で実行されるユーザ対話操作について説明している。なお、本発明は、必ずしも付属物とタッチ感知ディスプレイとの間の接触では行われないユーザ対話操作を用いて実施することができる。例えば、ユーザ対話操作は、付属物がディスプレイの近くにあるときに検出することができ、あるいは、仮想環境においてシミュレーションされてもよい。

Claims (12)

  1. コンピュータによって実施される、グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトの色を生成するための方法であって、
    グラフィカル・ユーザ・インターフェース上に、それぞれが色に関連付けられたアイコンの組を表示するステップ(S102)と、
    前記アイコンの組のうちの第1のアイコンに対するタッチである第1のユーザ対話操作を検出するステップ(S110)と、
    少なくともスライドを含む第2のユーザ対話操作を検出するステップ(S120)と、
    前記第1のアイコンに関連付けられた第1の色のパラメータの値を、前記第2のユーザ対話操作によって変更するステップ(S124)と、
    前記変更したパラメータの値を有する前記第1の色である、第1の新たな色を算出するステップ(S130)と、
    第2の色と関連付けられた前記アイコンの組のうち第2のアイコン上のタッチである第3のユーザ対話操作を検出するステップ(S140)と、
    前記第2のユーザ対話操作の終了または前記第3のユーザ対話操作の終了を検知すると、前記第1の新たな色と前記第2の色をマージすることによって第2の新たな色を算出するステップと
    を含むことを特徴とする方法。
  2. 請求項に記載の、コンピュータによって実施される方法であって、前記第2の新たな色を算出する前に、さらに
    少なくともスライドを含む第4のユーザ対話操作を検出するステップ(S150)と、
    前記第2の色のパラメータの値を変更するステップ(S154)
    を含み、前記値の選択が前記第のユーザ対話操作によって行われる
    ことを特徴とする方法。
  3. 請求項1または2に記載の、コンピュータによって実施される方法であって、
    前記第2のユーザ対話操作は、タッチおよび前記タッチから始まるスライドを含み、前記スライドの向きは略水平である
    ことを特徴とする方法。
  4. 請求項1〜のいずれかに記載の、コンピュータによって実施される方法であって、
    前記第2のユーザ対話操作は、タッチおよび前記タッチから始まるスライドを含み、前記スライドの向きは略垂直である
    ことを特徴とする方法。
  5. 請求項またはに記載の、コンピュータによって実施される方法であって、
    前記スライドの1つの向きは、前記第1の色の1つのパラメータに関連付けられている
    ことを特徴とする方法。
  6. 請求項1〜のいずれかに記載の、コンピュータによって実施される方法であって、
    前記アイコンの組のうちの第1のアイコンに対する第1のユーザ対話操作を検出するステップは、
    前記アイコンの組のうちの第1のアイコンに対する第1のユーザタッチを検出するステップと、
    前記第1のユーザタッチの継続時間が所定の時間を超えたと判定するステップと、
    前記第1のユーザタッチが終了したことを検出するステップと、
    前記第1のユーザタッチが終了したことを検出したときに前記第1のアイコンに関連付けられた前記第1の色を選択するステップと
    を含むことを特徴とする方法。
  7. 請求項1〜のいずれかに記載の、コンピュータによって実施される方法であって、さらに
    前記アイコンの組を表示する前に、前記グラフィカル・ユーザ・インターフェース上に表示されたオブジェクトを選択するステップと、
    前記新たな色が算出された後に第5のユーザ対話操作を検出するステップと、
    前記選択したオブジェクトに対し前記新たな色を適用するステップと
    を含むことを特徴とする方法。
  8. 請求項1〜のいずれかに記載の、コンピュータによって実施される方法であって、
    前記新たな色の算出は前記第2のユーザ対話操作が検出されている間にリアルタイムに実行され、さらに
    リアルタイムに算出された、前記算出された新たな色を用いて、前記アイコンの組における前記第1のアイコンを描画するステップを含む
    ことを特徴とする方法。
  9. 請求項1〜のいずれかに記載の、コンピュータによって実施される方法であって、さらに
    前記算出した新たな色を用いて第3のアイコンを描画するステップを含む
    ことを特徴とする方法。
  10. 請求項1〜のいずれかに記載の方法を実行するための命令を含むコンピュータプログラム。
  11. 請求項10に記載のコンピュータプログラムを記録したコンピュータ読み取り可能記憶媒体。
  12. 請求項11に記載のコンピュータプログラムを記録したメモリに接続されたプロセッサと、グラフィカル・ユーザ・インターフェースとを備えるシステム。
JP2017125154A 2016-06-29 2017-06-27 Gui上に表示されたオブジェクトの色の生成 Active JP6978863B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305798.7 2016-06-29
EP16305798.7A EP3264251B1 (en) 2016-06-29 2016-06-29 Generation of a color of an object displayed on a gui

Publications (2)

Publication Number Publication Date
JP2018041441A JP2018041441A (ja) 2018-03-15
JP6978863B2 true JP6978863B2 (ja) 2021-12-08

Family

ID=56551352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017125154A Active JP6978863B2 (ja) 2016-06-29 2017-06-27 Gui上に表示されたオブジェクトの色の生成

Country Status (4)

Country Link
US (2) US11334233B2 (ja)
EP (1) EP3264251B1 (ja)
JP (1) JP6978863B2 (ja)
CN (1) CN107544797B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
EP3516627A4 (en) 2016-09-23 2020-06-24 Apple Inc. CREATION AND EDITION OF AVATAR
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR20180051288A (ko) * 2016-11-08 2018-05-16 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP1590263S (ja) 2016-12-28 2017-11-06
JP1589999S (ja) * 2016-12-28 2017-11-06
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
EP4366317A3 (en) 2017-05-16 2024-08-07 Apple Inc. Emoji recording and sending
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
DK201870378A1 (en) 2018-05-07 2020-01-13 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
DK202070624A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
KR20220104921A (ko) * 2021-01-19 2022-07-26 라인플러스 주식회사 디스플레이 모드 기반 그래픽 객체 제공 방법 및 시스템
CN114239103B (zh) * 2021-03-19 2024-08-13 深圳微图世界网络科技有限公司 一种基于电子表格的cad建筑平面图部分区域变色装置及其搭建方法
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11983382B2 (en) * 2022-06-13 2024-05-14 Illuscio, Inc. Systems and methods for generating three-dimensional menus and toolbars to control computer operation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7071950B2 (en) * 2000-09-01 2006-07-04 Ricoh Co., Ltd. Super imposed image display color selection system and method
US7898397B2 (en) * 2007-06-12 2011-03-01 Apple Inc. Selectively adjustable icons for assisting users of an electronic device
US20090231356A1 (en) * 2008-03-17 2009-09-17 Photometria, Inc. Graphical user interface for selection of options from option groups and methods relating to same
US20110074807A1 (en) * 2009-09-30 2011-03-31 Hitachi, Ltd. Method of color customization of content screen
JP4981946B2 (ja) 2010-03-29 2012-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯端末及び携帯端末における文字色変更方法
US20110292069A1 (en) * 2010-05-28 2011-12-01 Witt David Joseph RGB Color Mixer
CN102622214B (zh) * 2011-01-27 2015-09-30 腾讯科技(深圳)有限公司 一种实现多种显示模式通用图标的方法与装置
US8762866B2 (en) * 2011-04-08 2014-06-24 Adobe Systems Incorporated Remote paint mixing controller
US9424799B2 (en) * 2011-10-28 2016-08-23 Apple Inc. On-screen image adjustments
US9131192B2 (en) * 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
CN104221359B (zh) * 2012-03-06 2018-01-12 苹果公司 用于色彩片段的色彩调节器
US20130326381A1 (en) * 2012-05-29 2013-12-05 Microsoft Corporation Digital art program interaction and mechanisms
US9563972B2 (en) * 2012-10-22 2017-02-07 FifthyThree, Inc. Methods and apparatus for providing color palette management within a graphical user interface
JP5751283B2 (ja) * 2013-06-04 2015-07-22 コニカミノルタ株式会社 色調整システム、色調整方法、および色調整プログラム
CN103870155B (zh) * 2014-02-21 2017-08-25 联想(北京)有限公司 信息处理的方法及电子设备
US10558334B2 (en) * 2014-03-31 2020-02-11 Htc Corporation Electronic device and method for messaging
CN104050004B (zh) * 2014-06-30 2018-01-09 宇龙计算机通信科技(深圳)有限公司 界面图标色彩设置方法、装置及终端
US10489051B2 (en) * 2014-11-28 2019-11-26 Samsung Electronics Co., Ltd. Handwriting input apparatus and control method thereof
KR20170053435A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 전자 장치 및 전자 장치에서의 이미지 편집 방법

Also Published As

Publication number Publication date
US11733851B2 (en) 2023-08-22
CN107544797A (zh) 2018-01-05
US11334233B2 (en) 2022-05-17
US20220269402A1 (en) 2022-08-25
EP3264251B1 (en) 2019-09-04
CN107544797B (zh) 2022-11-08
JP2018041441A (ja) 2018-03-15
US20180004404A1 (en) 2018-01-04
EP3264251A1 (en) 2018-01-03

Similar Documents

Publication Publication Date Title
JP6978863B2 (ja) Gui上に表示されたオブジェクトの色の生成
CN108228987B (zh) 副本选择
US10002465B2 (en) Creation of bounding boxes on a 3D modeled assembly
JP6356378B2 (ja) 幾何学的三次元モデルオブジェクトを設計する方法
JP6966842B2 (ja) 面の軌道を用いたB−RePの設計
US11163915B2 (en) Three-dimensional modeled object
JP6823424B2 (ja) 3次元モデル化オブジェクトの比較
JP6721333B2 (ja) オブジェクトのセットの視点の選択
EP3506133A1 (en) Method of assembling parts of a product
JP6721330B2 (ja) マルチフィジックスシステムの設計
KR102055952B1 (ko) 오브젝트들의 원형 스태거드 패턴의 설계
US12073526B2 (en) Flexible modeling using a weak type definition
US12061786B2 (en) Setting typed parameter
US11941773B2 (en) Method for designing a three-dimensional mesh in a 3D scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210706

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211112

R150 Certificate of patent or registration of utility model

Ref document number: 6978863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150