JP2023113176A - 情報処理装置、情報処理システム、およびプログラム - Google Patents

情報処理装置、情報処理システム、およびプログラム Download PDF

Info

Publication number
JP2023113176A
JP2023113176A JP2022015334A JP2022015334A JP2023113176A JP 2023113176 A JP2023113176 A JP 2023113176A JP 2022015334 A JP2022015334 A JP 2022015334A JP 2022015334 A JP2022015334 A JP 2022015334A JP 2023113176 A JP2023113176 A JP 2023113176A
Authority
JP
Japan
Prior art keywords
image
texture
operation image
information
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022015334A
Other languages
English (en)
Inventor
達哉 森
Tatsuya Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Priority to JP2022015334A priority Critical patent/JP2023113176A/ja
Priority to US17/895,452 priority patent/US20230245353A1/en
Publication of JP2023113176A publication Critical patent/JP2023113176A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】高度なスキルを持たないユーザであっても、従来よりも簡易な手法で意図する画像の質感を制御できるようにする。【解決手段】情報処理装置としてのユーザ端末10は、制御部11を備え、制御部11では、入力操作受付部104が、入力操作を受付可能とし、その入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御し、表示制御部103が、編集対象となる対象画像を表示する表示部を制御し、パラメータ修正部105が、操作画像に対する入力操作に応じて、操作画像の外観から感受し得る質感を対象画像に反映させる。【選択図】図3

Description

本発明は、情報処理装置、情報処理システム、およびプログラムに関する。
画像の質感の制御は、画像編集用のソフトウェアを用いて行われるのが一般的であるが、画像編集を行うユーザが意図する質感を表現する場合、複雑な入力操作を可能にする高度なスキルが求められる。このようなことから、高度なスキルを持たないユーザであっても、意図する画像の質感の制御を簡易に行えるようにするための技術が提案されている(例えば、特許文献1)。
特許第6667739号公報
しかしながら、従来よりも簡易な手法でユーザが意図する画像の質感を制御できる手法の開発が望まれていた。
本発明の目的は、高度なスキルを持たないユーザであっても、従来よりも簡易な手法で意図する画像の質感を制御できるようにすることにある。
請求項1に記載された発明は、プロセッサを備え、前記プロセッサは、入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御し、編集対象となる対象画像を表示する表示部を制御し、前記操作画像に対する前記入力操作に応じて、当該操作画像の外観から感受し得る前記質感を前記対象画像に反映させることを特徴とする、情報処理装置である。
請求項2に記載された発明は、前記操作画像の前記質感は、当該操作画像の陰影の成分を示す情報と、色の成分を示す情報との少なくとも一方の情報により定義されることを特徴とする、請求項1に記載の情報処理装置である。
請求項3に記載された発明は、前記プロセッサは、前記陰影の成分を示す情報として、前記操作画像の光の当たり方を示す情報を保持していることを特徴とする、請求項2に記載の情報処理装置である。
請求項4に記載された発明は、前記プロセッサは、前記入力操作として、タッチ操作またはマウス操作との各々に応じて、前記光の当たり方を示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、請求項3に記載の情報処理装置である。
請求項5に記載された発明は、前記プロセッサは、前記タッチ操作または前記マウス操作に応じて、前記光の当たり方を示す情報としての光の向きを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、請求項4に記載の情報処理装置である。
請求項6に記載された発明は、前記プロセッサは、前記タッチ操作または前記マウス操作により指定された前記操作画像上の位置に応じて、前記光の向きを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、請求項5に記載の情報処理装置である。
請求項7に記載された発明は、前記プロセッサは、ピンチ操作またはマウスホイール操作に応じて、前記光の当たり方を示す情報としての光の強さを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、請求項4に記載の情報処理装置である。
請求項8に記載された発明は、前記プロセッサは、前記ピンチ操作のうちピンチアウトの操作が行われると、光が強くなるように前記光の強さを示す情報を修正し、ピンチインの操作が行われると、光が弱くなるように当該光の強さを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、請求項7に記載の情報処理装置である。
請求項9に記載された発明は、前記プロセッサは、前記入力操作を行うユーザが前記質感を感受可能な態様で、前記操作画像をユーザインターフェースに表示する制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項10に記載された発明は、前記プロセッサは、前記質感を感受可能な態様として、外形を球体とした前記操作画像を、前記ユーザインターフェースに表示する制御を行うことを特徴とする、請求項9に記載の情報処理装置である。
請求項11に記載された発明は、前記プロセッサは、前記ユーザインターフェースに表示された、前記操作画像の前記質感を定義する情報の組み合わせの中から、1の組み合わせを選択する操作に応じて、当該操作画像の当該質感を変化させることを特徴とする、請求項9に記載の情報処理装置である。
請求項12に記載された発明は、前記プロセッサは、前記操作画像の前記質感を定義する前記情報の組み合わせとして、当該操作画像の当該質感を表現する複数の感性語の選択肢を、前記ユーザインターフェースにさらに表示する制御を行うことを特徴とする、請求項11に記載の情報処理装置である。
請求項13に記載された発明は、前記プロセッサは、前記情報の組み合わせにより定義される前記質感を可視化した複数のイメージ画像の選択肢を、前記ユーザインターフェースにさらに表示する制御を行うことを特徴とする、請求項12に記載の情報処理装置である。
請求項14に記載された発明は、プロセッサを備え、前記プロセッサは、入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像と、編集対象となる対象画像とをユーザインターフェースに表示する制御を行い、前記ユーザインターフェースに表示した前記操作画像に対する入力操作を受け付け、前記入力操作に応じて、前記操作画像の外観から感受し得る質感を、前記対象画像に反映させることを特徴とする、情報処理装置である。
請求項15に記載された発明は、入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御する操作制御手段と、前記操作画像および編集対象の対象画像をユーザインターフェースに表示する表示手段と、前記ユーザインターフェースに表示された前記操作画像に対する入力操作を受け付ける受付手段と、前記入力操作に応じて、前記操作画像の外観から感受し得る前記質感を、前記対象画像に反映させる反映手段と、を有することを特徴とする、情報処理システムである。
請求項16に記載された発明は、コンピュータに、入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御する機能と、編集対象となる対象画像を表示する表示部を制御する機能と、前記操作画像に対する前記入力操作に応じて、当該操作画像の外観から感受し得る前記質感を前記対象画像に反映させる機能と、を実現させるためのプログラムである。
請求項1の本発明によれば、高度なスキルを持たないユーザであっても、従来よりも簡易な手法で意図する画像の質感の制御を可能にする情報処理装置を提供できる。
請求項2の本発明によれば、画像の質感を定義する陰影の成分と、色の成分とを簡易な操作で制御できる。
請求項3の本発明によれば、操作画像の陰影の成分と、色の成分とを簡易な操作で制御できる。
請求項4の本発明によれば、タッチ操作またはマウス操作による簡易な操作で操作画像の光の当たり方を制御できる。
請求項5の本発明によれば、タッチ操作またはマウス操作で操作画像の光の当たる向きを簡易な操作で制御できる。
請求項6の本発明によれば、タッチ操作またはマウス操作で位置を指定するという簡易な操作で操作画像の光の当たる向きを制御できる。
請求項7の本発明によれば、タッチ操作またはマウス操作で操作画像の光の当たる強さを簡易な操作で制御できる。
請求項8の本発明によれば、ピンチアウトおよびピンチインの操作によって操作画像の光の当たる強さを簡易な操作で制御できる。
請求項9の本発明によれば、ユーザインターフェースに表示された操作画像に対する簡易な操作で画像の質感を制御できる。
請求項10の本発明によれば、ユーザインターフェースに表示された球体の操作画像に対する簡易な操作で画像の質感を制御できる。
請求項11の本発明によれば、ユーザインターフェースに表示された、操作画像の質感を定義する情報の組み合わせの中から1の組み合わせを選択するという簡易な操作で画像の質感を制御できる。
請求項12の本発明によれば、ユーザインターフェースに表示された複数の感性語の選択肢の中から1の選択肢を選択するという簡易な操作で画像の質感を制御できる。
請求項13の本発明によれば、ユーザインターフェースに表示された複数のイメージ画像の選択肢の中から1の画像を選択するという簡易な操作で画像の質感を制御できる。
請求項14の本発明によれば、高度なスキルを持たないユーザであっても、従来よりも簡易な手法で意図する画像の質感の制御を可能にする情報処理装置を提供できる。
請求項15の本発明によれば、高度なスキルを持たないユーザであっても、従来よりも簡易な手法で意図する画像の質感の制御を可能にする情報処理システムを提供できる。
請求項16の本発明によれば、高度なスキルを持たないユーザであっても、従来よりも簡易な手法で意図する画像の質感の制御を可能にするプログラムを提供できる。
本実施の形態が適用される情報処理システムの全体構成の一例を示す図である。 本実施の形態が適用される情報処理装置としてのユーザ端末のハードウェア構成を示す図である。 操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映がユーザ端末により行われる場合における、ユーザ端末の制御部の機能構成を示す図である。 操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバにより行われる場合における、ユーザ端末の制御部の機能構成を示す図である。 操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバにより行われる場合における、管理サーバの制御部の機能構成を示す図である。 操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映がユーザ端末により行われる場合における、ユーザ端末の処理の流れを示すフローチャートである。 操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバにより行われる場合における、ユーザ端末の処理の流れを示すフローチャートである。 操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバにより行われる場合における、管理サーバの処理の流れを示すフローチャートである。 ユーザインターフェースに表示された操作画像に対する操作の具体例を示す図である。 ユーザインターフェースに表示された操作画像に対する操作の具体例を示す図である。 ユーザインターフェースに表示された、複数の操作画像パラメータ情報の組み合わせを選択する操作の具体例を示す図である。 ユーザインターフェースに表示された、複数の操作画像パラメータ情報の組み合わせにより定義される質感を可視化した複数のイメージ画像を選択する操作の具体例を示す図である。 球体の操作画像に対する操作による操作画像の質感の変化の様子と、操作画像の質感の変化が反映された対象画像の変化の様子との具体例を示す図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
(情報処理システムの構成)
図1は、本実施の形態が適用される情報処理システム1の全体構成の一例を示す図である。
情報処理システム1は、ユーザ端末10と、管理サーバ30とがネットワーク90を介して接続されることにより構成されている。ネットワーク90は、例えば、LAN(Local Area Network)、インターネット等である。
ユーザ端末10は、ユーザが操作するパーソナルコンピュータ、スマートフォン、タブレット端末等の情報処理装置である。例えば、ユーザ端末10は、入力操作を受付可能とし、入力操作に応じて外観から感受し得る質感が変化する画像(以下、「操作画像」と呼ぶ。)を有する操作部15(図2参照)を制御する。ここで、「質感」とは、画像を視認することで感受し得る印象やイメージのことをいう。また、例えば、ユーザ端末10は、編集対象となる画像(以下、「対象画像」と呼ぶ。)を表示する表示部16(図2参照)を制御する。また、例えば、ユーザ端末10は、操作画像に対する入力操作に応じて、操作画像の外観から感受し得る質感を対象画像に反映させる。
管理サーバ30は、情報処理システム1の全体の管理をするサーバとしての情報処理装置である。管理サーバ30は、ユーザ端末10による上述の処理の一部を行うことができる。すなわち、管理サーバ30は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映のうち少なくとも一部の処理を行うことができる。この場合、ユーザ端末10は、例えば、管理サーバ30から送信されてくる各種の情報を取得してユーザインターフェースに表示し、ユーザインターフェースに入力された情報を管理サーバ30に向けて送信する。なお、これらの処理の詳細については後述する。
上述の情報処理システム1の構成は一例であり、情報処理システム1全体として上述の処理を実現させる機能を備えていればよい。このため、上述の処理を実現させる機能のうち、一部または全部を情報処理システム1内で分担してもよいし協働してもよい。すなわち、ユーザ端末10の機能の一部または全部を管理サーバ30の機能としてもよいし、管理サーバ30の機能の一部または全部をユーザ端末10の機能としてもよい。さらに、情報処理システム1を構成するユーザ端末10および管理サーバ30の各々の機能の一部または全部を、図示せぬ他のサーバ等に移譲してもよい。これにより、情報処理システム1全体としての処理が促進され、また、処理を補完し合うことも可能となる。
(ユーザ端末のハードウェア構成)
図2は、本実施の形態が適用される情報処理装置としてのユーザ端末10のハードウェア構成を示す図である。
ユーザ端末10は、制御部11と、メモリ12と、記憶部13と、通信部14と、操作部15と、表示部16とを有している。これらの各部は、データバス、アドレスバス、PCI(Peripheral Component Interconnect)バス等で接続されている。
制御部11は、OS(基本ソフトウェア)やアプリケーションソフトウェア(応用ソフトウェア)等の各種ソフトウェアの実行を通じてユーザ端末10の機能の制御を行うプロセッサである。制御部11は、例えばCPU(Central Processing Unit)で構成される。メモリ12は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、演算に際して作業エリアとして用いられる。メモリ12は、例えばRAM(Random Access Memory)等で構成される。
記憶部13は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。記憶部13は、例えばプログラムや各種設定データなどの記憶に用いられるHDD(Hard Disk Drive)やSSD(Solid State Drive)、半導体メモリ等で構成される。記憶部13には、各種情報を記憶するデータベースとして、例えば、操作画像パラメータ情報および対象画像パラメータ情報が記憶されたパラメータDB901等が格納されている。
通信部14は、ネットワーク90を介して管理サーバ30および外部との間でデータの送受信を行う。操作部15は、例えばキーボード、マウス、機械式のボタン、スイッチで構成され、入力操作を受け付ける。また、操作部15は、表示部16に表示された操作画像を有する。操作部15には、表示部16と一体的にタッチパネルを構成するタッチセンサも含まれる。表示部16は、例えば情報の表示に用いられる液晶ディスプレイや有機EL(=Electro Luminescence)ディスプレイで構成され、画像やテキストのデータなどを表示する。表示部16には、ユーザインターフェースが表示される。
(管理サーバのハードウェア構成)
管理サーバ30のハードウェア構成は、図2に示すユーザ端末10のハードウェア構成と同様の構成を備えており、図示および説明を省略する。
(ユーザ端末の制御部の機能構成)
図3は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映がユーザ端末10により行われる場合における、ユーザ端末10の制御部11の機能構成を示す図である。
操作画像を有する操作部の制御、対象画像を表示する表示部の制御、および操作画像の外観から感受し得る質感の対象画像への反映がユーザ端末10により行われる場合、ユーザ端末10の制御部11では、パラメータ管理部101と、情報取得部102と、表示制御部103と、入力操作受付部104と、パラメータ修正部105とが機能する。
パラメータ管理部101は、操作画像の外観から感受し得る質感を定義するパラメータ情報(以下、「操作画像パラメータ情報」と呼ぶ。)と、対象画像の外観から感受し得る質感を定義するパラメータ情報(以下、「対象画像パラメータ情報」と呼ぶ。)とをデータベースに記憶させて管理する。具体的には、パラメータ管理部101は、操作画像パラメータ情報および対象画像パラメータ情報を、記憶手段として機能する記憶部13のパラメータDB901(図2参照)に記憶させて管理する。
情報取得部102は、各種情報を取得する。例えば、情報取得部102は、パラメータ管理部101により管理されている操作画像パラメータ情報および対象画像パラメータ情報を取得する。操作画像パラメータ情報および対象画像パラメータ情報は、例えば、画像の陰影の成分を示す情報と、画像の色の成分を示す情報とによって定義することができる。このうち、画像の陰影の成分を示す情報は、明るさを表すグレースケールで表現することができ、画像の色の成分を示す情報は、例えば、画像の画素ごとのR(赤)、G(緑)、およびB(青)の色の成分を示すRGB値に基づく色空間、H(色相)、S(彩度)、およびV(明度)の色の要素を示すHSV値に基づく色空間、L(明度)、A(色相、彩度)、およびB(色相、彩度)の色の要素を示すLAB値に基づく色空間等で表現することができる。
また、画像の陰影の成分を示す情報には、画像の光の当たり方を示す情報が含まれ、画像の光の当たり方を示す情報には、例えば、光の向きを示す情報や、光の強さを示す情報等が含まれる。このうち、光の向きを示す情報としては、例えば、画像が受ける光の位置を3次元空間の座標(X軸、Y軸、およびZ軸)で示した値等が挙げられる。また、光の強さを示す情報としては、例えば、光の強さを段階表示(例えば、5段階表示)した値等が挙げられる。なお、操作画像パラメータ情報および対象画像パラメータ情報を定義する手法は、上述の色の成分を示す情報と、陰影の成分を示す情報とで定義する手法に限定されない。
表示制御部103は、表示手段として、各種情報を表示部16(図2参照)に表示させる制御を行う。例えば、表示制御部103は、表示部16にユーザインターフェースを表示させる制御を行う。このユーザインターフェースは、ユーザ端末10に予めインストールされた、ユーザ向けの専用のアプリケーションソフトウェアを起動することで表示させることもできるし、ユーザ向けの専用のウェブサイトにアクセスすることでも表示させることができる。
表示制御部103は、ユーザインターフェースに、入力操作を行うユーザが質感を感受可能な態様の操作画像を表示する制御を行う。ここで、「質感を感受可能な態様」としては、例えば、外形を球体のイメージで表現した態様等である。具体的には、表示制御部103は、情報取得部102により取得された操作画像パラメータ情報が反映された球体の操作画像をユーザインターフェースに表示する制御を行う。なお、操作画像は、球体に限定されず、あらゆる形状で構成させることができる。ユーザインターフェースに表示された操作画像の具体例については、図9乃至図13を参照して後述する。
また、例えば、表示制御部103は、操作画像の質感が反映された対象画像をユーザインターフェースに表示する制御を行う。具体的には、表示制御部103は、情報取得部102により取得された対象画像パラメータ情報が反映された対象画像をユーザインターフェースに表示する制御を行う。なお、ユーザインターフェースに表示された対象画像の具体例については、図9乃至図13を参照して後述する。
また、例えば、表示制御部103は、複数の操作画像パラメータ情報の組み合わせをユーザインターフェースに表示する制御を行う。具体的には、例えば、表示制御部103は、複数の操作画像パラメータ情報の組み合わせとして、質感を表現する複数の感性語の選択肢をユーザインターフェースに表示する制御を行う。ここで、「感性語」とは、外界からの刺激に対するユーザの心理的感情を表現する形容詞のことをいい、例えば、「暖かい」、「冷たい」、「豪華な」、「鮮やかな」といった語が挙げられる。なお、ユーザインターフェースに表示される感性語の選択肢の具体例については、図12を参照して後述する。
また、例えば、表示制御部103は、操作画像パラメータ情報の組み合わせにより定義される質感を可視化した複数のイメージ画像の選択肢を、前記ユーザインターフェースにさらに表示する制御を行う。「質感を可視化したイメージ画像」としては、例えば、質感を表現するために一般的に用いられるテクスチャ画像等が挙げられる。なお、ユーザインターフェースに表示される、質感を可視化した複数のイメージ画像の選択肢の具体例については、図12を参照して後述する。
また、例えば、表示制御部103は、感性語やイメージ画像の態様でユーザインターフェースに表示された複数の操作画像パラメータ情報の組み合わせのうち、1の組み合わせを選択するための入力操作が受け付けられると、選択された1の組み合わせに応じて質感を変化させた操作画像および対象画像をユーザインターフェースに表示する制御を行う。
入力操作受付部104は、操作制御手段および受付手段として、ユーザの入力操作を受け付ける。例えば、入力操作受付部104は、ユーザインターフェースに表示された操作画像に対する入力操作を受け付ける。また、例えば、入力操作受付部104は、ユーザインターフェースに選択可能な態様で表示された、複数の操作画像パラメータ情報の組み合わせ(例えば、感性語やテクスチャ画像)を選択する入力操作を受け付ける。入力操作受付部104は、複数の操作画像パラメータ情報の組み合わせを選択する操作を受け付けたかどうかにかかわらず、操作画像に対する入力操作を受け付ける。これにより、ユーザは、感性語を選択した後に操作画像に対する入力操作を行うことで、操作画像および対象画像から感受し得る質感の微調整を行うことができる。
「操作画像に対する入力操作」としては、例えば、ユーザインターフェースに表示された操作画像に対するタッチ操作やマウス操作によって操作画像の光の当たり方を示す情報を修正する操作等が挙げられる。操作画像の光の当たり方を示す情報を修正する操作には、例えば、光の向きを示す情報を修正する操作や、光の強さを示す情報を修正する操作等が含まれる。
このうち、光の向きを示す情報を修正するための操作としては、例えば、操作画像に対するタップ操作やクリック操作により、操作画像を照らす光の向きを指定する操作等が挙げられる。また、光の強さを示す情報を修正するための操作としては、例えば、操作画像に対するピンチ操作やマウスホイール操作により、操作画像を照らす光の強さを指定する操作等が挙げられる。
例えば、操作画像に対するピンチ操作のうち、ピンチアウトの操作が行われると、操作画像を照らす光が強くなるように指定することができる。「ピンチアウトの操作」とは、タッチパネルに接触させた2本の指を押し広げる操作のことをいう。また、操作画像に対するピンチ操作のうちピンチインの操作が行われると、操作画像を照らす光が弱くなるように指定することができる。「ピンチインの操作」とは、タッチパネルに接触させた2本の指の間隔を縮める操作のことをいう。
なお、上述のタッチ操作およびマウス操作は、操作画像に対する入力操作の一例であり、他の手法によるものであってもよい。例えば、操作画像を照らす光の強さを指定する操作は、上述のピンチアウトやピンチインの操作に限定されず、タッチ操作およびマウス操作におけるいわゆる「長押し」の時間に応じて光の強さを指定できるようにしてもよい。この場合、例えば、初期値を「光が当たっていない状態」とし、「長押し」された後にダブルタップの操作やダブルクリックの操作が行われると、光の強さの指定がキャンセルされ、初期値に戻るようにしてもよい。
パラメータ修正部105は、操作画像に対する入力操作に応じて操作画像パラメータ情報を修正し、反映手段として、その修正内容を対象画像パラメータ情報に反映させる。具体的には、パラメータ修正部105は、入力操作受付部104により受け付けられた入力情報により特定されるパラメータ情報の組み合わせに基づいて、操作画像パラメータ情報を修正して、その修正内容を対象画像パラメータ情報に反映させる。「反映」とは、操作画像パラメータ情報の修正に合わせて、対象画像の質感が操作画像の質感と同様になるように、対象画像パラメータ情報を修正することをいう。
対象画像パラメータ情報が、陰影の成分を示す情報と、色の成分を示す情報とで定義されている場合、パラメータ修正部105は、例えば以下の手法を用いて対象画像パラメータ情報を修正する。すなわち、パラメータ修正部105は、まず、対象画像(I)を、陰影の成分を表す照明成分(S)と、色の成分を表す反射率成分(R)とに分解し、次に、照明成分(S)を、物体の形状を表す法線マップ(N)と、光の当たり方を表す光パラメータ(L)とに分解する。
具体的には、パラメータ修正部105は、「I=S×R」、「S=f(N,L)」といった式を用いた計算によって対象画像パラメータ情報を修正する。これにより、パラメータ修正部105は、対象画像(I)から、法線マップ(N)、光パラメータ(L)、および反射率成分(R)を算出したり、その逆算をしたりすることができる。
なお、法線マップ(N)、光パラメータ(L)、および反射率成分(R)を算出する手法は特に限定されない。例えば、予め設定した対象画像パラメータ情報の仮定値を最適化する手法、ディープラーニング等の機械学習の推定結果を用いる手法等を用いることができる。また、光パラメータ(L)の設定値を変更し、球面調和関数や内積を利用したfにより照明成分(S)を算出してもよい。
例えば、操作画像に対するピンチアウトの操作が行われると、パラメータ修正部105は、操作画像を照らす光が強くなるように光の強さを示す情報を修正し、その修正内容を対象画像に反映する。また、操作画像に対するピンチ操作のうちピンチインの操作が行われると、パラメータ修正部105は、操作画像を照らす光が弱くなるように光の強さを示す情報を修正し、その修正内容を対象画像に反映する。
パラメータ修正部105による、操作画像パラメータ情報および対象画像パラメータ情報を修正する処理の結果、修正後の操作画像から感受し得る質感と、修正後の対象画像から感受し得る質感とが同様になる。これにより、ユーザは、操作画像に対する操作に応じて変化する操作画像の質感を視認しながら、対象画像の質感を自由に設定することができる。
図4は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバ30により行われる場合における、ユーザ端末10の制御部11の機能構成を示す図である。
操作画像の外観から感受し得る質感の対象画像への反映が管理サーバ30により行われる場合、ユーザ端末10の制御部11では、情報取得部102と、表示制御部103と、入力操作受付部104と、送信制御部106とが機能する。このうち、表示制御部103および入力操作受付部104は、上述の図3の機能の内容と同様であり、説明を省略する。
情報取得部102は、各種情報を取得する。例えば、情報取得部102は、管理サーバ30から送信されてきた操作画像パラメータ情報および対象画像パラメータ情報を取得する。情報取得部102により取得される操作画像パラメータ情報および対象画像パラメータ情報には、管理サーバ30により修正された操作画像パラメータ情報および対象画像パラメータ情報が含まれる。
送信制御部106は、通信部14(図2参照)を介して各種情報を管理サーバ30または外部に向けて送信する制御を行う。例えば、送信制御部106は、対象画像のデータを管理サーバ30に向けて送信する制御を行う。また、例えば、送信制御部106は、入力操作受付部104により入力操作が受け付けられた入力情報を管理サーバ30に向けて送信する制御を行う。
(管理サーバの制御部の機能構成)
図5は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバ30により行われる場合における、管理サーバ30の制御部の機能構成を示す図である。
操作画像の外観から感受し得る質感の対象画像への反映が管理サーバ30により行われる場合、管理サーバ30の制御部では、パラメータ管理部301と、送信制御部302と、情報取得部303と、パラメータ修正部304とが機能する。なお、このうち、パラメータ管理部301およびパラメータ修正部304の各々の機能は、図3のパラメータ管理部101およびパラメータ修正部105の各々の機能と同様であり、説明を省略する。
送信制御部302は、通信部を介して各種情報をユーザ端末10または外部に向けて送信する制御を行う。例えば、送信制御部302は、操作画像のデータおよび対象画像のデータをユーザ端末10に向けて送信する制御を行う。ユーザ端末10に向けて送信される操作画像のデータおよび対象画像のデータには、管理サーバ30により修正された操作画像パラメータ情報および対象画像パラメータ情報が含まれる。
情報取得部303は、通信部を介して各種情報を取得する。例えば、情報取得部303は、ユーザ端末10から送信されてきた対象画像のデータや、入力操作が受け付けられた入力情報を取得する。
(ユーザ端末の処理)
図6は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映がユーザ端末10により行われる場合における、ユーザ端末10の処理の流れを示すフローチャートである。
ユーザ端末10は、操作画像パラメータ情報および対象画像パラメータ情報をデータベースに記憶させて管理する(ステップ601)。具体的には、ユーザ端末10は、操作画像パラメータ情報および対象画像パラメータ情報を記憶部13のパラメータDB901(図2参照)に記憶させて管理する。
ユーザ端末10は、ユーザが、ユーザインターフェースを表示させるための入力操作が行われると(ステップ602でYES)、データベースに記憶させて管理している操作画像パラメータ情報および対象画像パラメータ情報を取得し(ステップ603)、取得した操作画像パラメータ情報および対象画像パラメータ情報の各々を反映させた操作画像および対象画像の各々をユーザインターフェースに表示する(ステップ604)。これに対して、ユーザインターフェースを表示させるための入力操作が行われていない場合(ステップ602でNO)、ステップ602を繰り返す。
ユーザ端末10は、ユーザインターフェースに表示された操作画像に対する入力操作が行われると(ステップ605でYES)、入力操作を受け付けて(ステップ606)、入力情報に応じて操作画像パラメータ情報を修正し、その修正内容を対象画像パラメータ情報に反映させる(ステップ607)。これに対して、操作画像に対する入力操作が行われない場合(ステップ605でNO)、ステップ608に進む。
ユーザ端末10は、ユーザインターフェースに選択可能な態様で表示された、複数の操作画像パラメータ情報の組み合わせを選択するための入力操作が行われると(ステップ608でYES)、入力操作を受け付ける(ステップ609)。そして、ユーザ端末10は、入力情報に応じて操作画像パラメータ情報を修正し、その修正内容を対象画像パラメータ情報に反映させ(ステップ610)、修正後の操作画像および対象画像をユーザインターフェースに表示する(ステップ611)。これに対して、複数の操作画像パラメータ情報の組み合わせを選択するための入力操作が行われない場合(ステップ608でNO)、処理は終了する。
図7は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバ30により行われる場合における、ユーザ端末10の処理の流れを示すフローチャートである。
管理サーバ30から操作画像パラメータ情報および対象画像パラメータ情報が送信されてくると(ステップ701でYES)、ユーザ端末10は、送信されてきたデータを取得する(ステップ702)。これに対して、操作画像パラメータ情報および対象画像パラメータ情報が送信されてきていない場合(ステップ701でNO)、ユーザ端末10はステップ701を繰り返す。
その後、ユーザインターフェースを表示させるための入力操作が行われると(ステップ703でYES)、ユーザ端末10は、ステップ702で取得した操作画像パラメータ情報および対象画像パラメータ情報の各々を反映させた操作画像および対象画像の各々をユーザインターフェースに表示する(ステップ704)。これに対して、ユーザインターフェースを表示させるための入力操作が行われない場合(ステップ703でNO)、ユーザ端末10はステップ703を繰り返す。
ユーザインターフェースに表示した操作画像に対する入力操作が行われると(ステップ705でYES)、ユーザ端末10は、入力操作を受け付けて(ステップ706)、入力情報を管理サーバ30に向けて送信する(ステップ707)。これに対して、操作画像に対する入力操作が行われない場合(ステップ705でNO)、ユーザ端末10はステップ708に進む。
ユーザインターフェースに選択可能な態様で表示された、複数の操作画像パラメータ情報の組み合わせを選択するための入力操作が行われると(ステップ708でYES)、ユーザ端末10は、入力操作を受け付けて(ステップ709)、入力情報を管理サーバ30に向けて送信する(ステップ710)。これに対して、複数の操作画像パラメータ情報の組み合わせを選択するための入力操作が行われない場合(ステップ708でNO)、ユーザ端末10の処理は終了する。
管理サーバ30から修正後の操作画像パラメータ情報および対象画像パラメータ情報が送信されてくると(ステップ711でYES)、ユーザ端末10は、送信されてきたデータを取得して(ステップ712)、修正後の操作画像パラメータ情報および対象画像パラメータ情報の各々を反映させた操作画像および対象画像の各々をユーザインターフェースに表示する(ステップ713)。これに対して、修正後の操作画像パラメータ情報および対象画像パラメータ情報が送信されてきていない場合(ステップ711でNO)、ユーザ端末10はステップ711を繰り返す。
(管理サーバの処理)
図8は、操作画像の外観から感受し得る質感の制御、および対象画像への質感の反映が管理サーバ30により行われる場合における、管理サーバ30の処理の流れを示すフローチャートである。
管理サーバ30は、操作画像パラメータ情報をデータベースに記憶させて管理する(ステップ801)。管理サーバ30は、ユーザ端末10から対象画像のデータが送信されてくると(ステップ802でYES)、送信されてきた対象画像のデータを取得し(ステップ803)、取得した対象画像の対象画像パラメータ情報をデータベースに記憶させて管理する(ステップ804)。これに対して、ユーザ端末10から対象画像のデータが送信されてきていない場合(ステップ802でNO)、管理サーバ30はステップ802を繰り返す。
管理サーバ30は、ユーザ端末10からの問い合わせに応じて、データベースに記憶させて管理している操作画像パラメータ情報および対象画像パラメータ情報をユーザ端末10に向けて送信する(ステップ805)。その後、ユーザ端末10から、操作画像に対する入力情報が送信されてくると(ステップ806でYES)、管理サーバ30は、送信されてきた入力情報を取得し(ステップ807)、入力情報に応じて操作画像パラメータ情報を修正し、その修正内容を対象画像パラメータ情報に反映させる(ステップ808)。これに対して、操作画像に対する入力操作の内容が送信されてきていない場合(ステップ806でNO)、ステップ809に進む。
管理サーバ30は、ユーザ端末10から、複数の操作画像パラメータ情報の組み合わせを選択するための入力情報が送信されてくると(ステップ809でYES)、送信されてきた入力情報を取得して(ステップ810)、入力情報に応じて操作画像パラメータ情報を修正し、その修正内容を対象画像パラメータ情報に反映させる(ステップ811)。そして、管理サーバ30は、修正後の操作画像パラメータ情報および対象画像パラメータ情報をユーザ端末10に向けて送信する(ステップ812)。これに対して、複数の操作画像パラメータ情報の組み合わせを選択するための入力操作が行われない場合(ステップ809でNO)、ユーザ端末10の処理は終了する。
(具体例)
図9および図10は、ユーザインターフェースに表示された操作画像に対する操作の具体例を示す図である。図9および図10には、ユーザインターフェースに表示された操作画像および対象画像の具体例が示されている。
図9には、操作画像パラメータ情報に含まれる光の当たり方を示す情報を修正する操作のうち、光の向きを示す情報を修正する操作の具体例が示されている。例えば、図9(A)に示すように、球体の操作画像Bの左下の部分へのタッチ操作が行われると、操作画像パラメータ情報が修正されて、左下方向から光を受けた態様の操作画像Bがユーザインターフェースに表示される。すると、対象画像パラメータ情報も修正されて、左下方向から光を受けた態様の対象画像Iがユーザインターフェースに表示される。
また、例えば、図9(B)に示すように、球体の操作画像Bの右下の部分へのタッチ操作が行われると、操作画像パラメータ情報が修正されて、右下方向から光を受けた態様の操作画像Bがユーザインターフェースに表示される。すると、対象画像パラメータ情報も修正されて、右下方向から光を受けた態様の対象画像Iがユーザインターフェースに表示される。
図10には、操作画像パラメータ情報に含まれる光の当たり方を示す情報を修正する操作のうち、光の強さを示す情報を修正する操作の具体例が示されている。まず、図10(A)に示すように、球体の操作画像Bの右下の部分へのタッチ操作が行われると、上述の図9(B)と同様に、右下方向から光を受けた態様の操作画像Bおよび対象画像Iがユーザインターフェースに表示される。次に、図10(B)に示すように、操作画像Bへのピンチアウトの操作が行われると、操作画像パラメータ情報が修正されて、ピンチアウトの操作を行う2本の指の距離が広がるに従い受ける光の強さが次第に大きくなる態様の操作画像Bがユーザインターフェースに表示される。すると、対象画像パラメータ情報も修正されて、受ける光の強さが次第に大きくなる態様の対象画像Iがユーザインターフェースに表示される。
また、図10(B)の状態にある操作画像Bへのピンチインの操作が行われると、操作画像パラメータ情報が修正されて、ピンチインの操作を行う2本の指の距離が縮まるに従い光の強さが次第に小さくなる態様の操作画像Bがユーザインターフェースに表示される。すると、対象画像パラメータ情報も修正されて、受ける光の強さが次第に小さくなる態様の対象画像Iがユーザインターフェースに表示される。
図11は、ユーザインターフェースに表示された、複数の操作画像パラメータ情報の組み合わせを選択する操作の具体例を示す図である。
図11には、ユーザインターフェースに表示された、複数の操作画像パラメータ情報の組み合わせとしての感性語の選択肢Mと、操作画像Bと、対象画像Iとの具体例が示されている。このうち、感性語の選択肢Mには、感性語としての「暖かい」、「冷たい」、「マイルドな」、「シャープな」、「ナチュラルな」、「豪華な」、「鮮やかな」、「落ち着いた」、「渋い」、および「幻想的な」の各々を選択するためのチェックボックスが表示されている。なお、図11に表示された感性語は一例に過ぎず、あらゆる感性語を選択可能な態様で表示することができる。
ここで、操作画像パラメータ情報が、操作画像の色の成分を示す情報と、操作画像が受ける光の向きを示す情報と、操作画像が受ける光の強さを示す情報との3つの操作画像パラメータ情報で定義されていたとする。図11には、いずれの感性語も選択されていない状態が示されているが、いずれか1の感性語を選択する操作が行われると、選択された感性語に対応する3つの操作画像パラメータ情報の組み合わせに修正される。その結果、操作画像Bおよび対象画像Iの各々の表示が修正される。
例えば、感性語のうち「暖かい」が選択されると、質感としての「暖かさ」を感受し得る3つの操作画像パラメータ情報の組み合わせに修正される。具体的には、例えば、操作画像の色の成分を示す情報としてのRGB値が、R(255)、G(149)、B(46)といった値に修正され、操作画像が受ける光の向きを示す情報としての3次元座標が、X軸(10)、Y軸(20)、Z軸(50)といった値に修正され、操作画像が受ける光の強さを示す情報としての段階表示が、「5」といった値に修正される。
また、例えば、感性語のうち「冷たい」が選択されると、質感としての「冷たさ」を感受し得る3つの操作画像パラメータ情報の組み合わせに修正される。具体的には、例えば、操作画像の色の成分を示す情報としてのRGB値が、R(166)、G(210)、B(231)といった値に修正され、操作画像が受ける光の向きを示す情報としての3次元座標が、X軸(16)、Y軸(11)、Z軸(20)といった値に修正され、操作画像が受ける光の強さを示す情報としての段階表示が、「3」といった値に修正される。
図12は、ユーザインターフェースに表示された、複数の操作画像パラメータ情報の組み合わせにより定義される質感を可視化した複数のイメージ画像を選択する操作の具体例を示す図である。
図12には、ユーザインターフェースに表示された、複数の操作画像パラメータ情報の組み合わせにより定義される質感を可視化したイメージ画像としてのテクスチャ画像T1乃至T3と、感性語の選択肢Mと、操作画像Bと、修正前の対象画像I1と、修正後の対象画像I2との具体例が示されている。
図12の例では、感性語の選択肢Mのうち「シャープな」が選択されている。このため、感受し得る質感が「シャープ」になるように操作画像パラメータ情報が修正された操作画像Bと、その修正の内容が反映された対象画像Iとがユーザインターフェースに表示されている。また、図12の例では、テクスチャ画像T1乃至T3のうちテクスチャ画像T1が選択されている。このため、テクスチャ画像T1から感受し得る質感が対象画像I2に転写されている。なお、図12の例では、3種類のテクスチャ画像T1乃至T3が選択可能な態様でユーザインターフェースに表示されているが、これに限定されない。例えば、4種類以上のテクスチャ画像が選択可能な態様(例えば、スライド表示させる態様)でユーザインターフェースに表示されるようにしてもよい。
図12に示すユーザインターフェースを視認するユーザは、質感を変化させる前の状態を対象画像I1で確認し、感性語の選択肢Mの選択結果と、操作画像Bへの操作の結果とを対象画像Iで確認する。また、感性語の選択肢Mの選択結果と、操作画像Bへの操作の結果と、テクスチャ画像Tの選択結果とを対象画像I2で確認する。確認が完了すると、ユーザは、「決定」と表記されたボタンDを押下する。
なお、図12の例では、ユーザインターフェースに表示されたテクスチャ画像T1乃至T3の中から1のテクスチャ画像を選択する操作として、タッチの操作やクリックの操作が行われる態様となっているが、これに限定されない。例えば、1のテクスチャ画像を移動させて対象画像Iに重ねるドラッグアンドドロップの操作によって1のテクスチャ画像が選択できるようにしてもよい。また、図示はしないが、感性語とテクスチャ画像とが対応付けられて管理されるようにしてもよい。
図13は、球体の操作画像Bに対する操作による操作画像Bの質感の変化の様子と、操作画像Bの質感の変化が反映された対象画像Iの変化の様子との具体例を示す図である。
上述のように、ユーザは、ユーザインターフェースに表示された操作画像Bに対するタッチ操作やマウス操作により、操作画像が受ける光の向きを示す情報と、操作画像が受ける光の強さを示す情報とを修正することで、操作画像Bから感受し得る質感を自由に変化させることができる。
図13(A)には、右方向から強い光を受けた態様の操作画像Bおよび対象画像Iが示されている。これは、操作画像Bの右端の部分へのタッチ操作と、ピンチアウトの操作とが行われたことを示している。また、図13(B)には、中心よりも少し右側の部分に弱い光を受けた態様の操作画像Bおよび対象画像Iが示されている。これは、操作画像Bの中心よりも少し右側の部分へのタッチ操作と、ピンチインの操作とが行われたことを示している。
図13(C)には、真下よりも僅かに中心および左寄りの部分に通常の強さの光を受けた態様の操作画像Bおよび対象画像Iが示されている。これは、操作画像Bの真下よりも僅かに中心および左寄りの部分へのタッチ操作のみが行われたことを示している。また、図13(D)には、左方向から通常の強さの光を受けた態様の操作画像Bおよび対象画像Iが示されている。これは、操作画像Bの左端の部分へのタッチ操作のみが行われたことを示している。
以上、本実施の形態について説明したが、本発明は上述した本実施の形態に限るものではない。また、本発明による効果も、上述した本実施の形態に記載されたものに限定されない。例えば、図1に示す情報処理システム1の構成、図2に示すユーザ端末10のハードウェア構成は、いずれも本発明の目的を達成するための例示に過ぎず、特に限定されない。また、図3および図4に示すユーザ端末10の機能構成、図5に示す管理サーバ30の機能構成も例示に過ぎず、特に限定されない。上述した処理を全体として実行できる機能が図1の情報処理システム1に備えられていれば足り、この機能を実現するためにどのような機能構成を用いるかは図3乃至図5の例に限定されない。
また、図6および図7に示すユーザ端末10の処理のステップ、および図8に示す管理サーバ30の処理のステップの各々の順序も例示に過ぎず、特に限定されない。図示されたステップの順序に沿って時系列的に行われる処理だけではなく、必ずしも時系列的に処理されなくとも、並列的あるいは個別的に行われてもよい。また、図9乃至図13に示す具体例も一例に過ぎず、特に限定されない。
1…情報処理システム、10…ユーザ端末、11…制御部、30…管理サーバ、90…ネットワーク、101…パラメータ管理部、102…情報取得部、103…表示制御部、104…入力操作受付部、105…パラメータ修正部、106…送信制御部、301…パラメータ管理部、302…送信制御部、303…情報取得部、304…パラメータ修正部

Claims (16)

  1. プロセッサを備え、
    前記プロセッサは、
    入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御し、
    編集対象となる対象画像を表示する表示部を制御し、
    前記操作画像に対する前記入力操作に応じて、当該操作画像の外観から感受し得る前記質感を前記対象画像に反映させることを特徴とする、
    情報処理装置。
  2. 前記操作画像の前記質感は、当該操作画像の陰影の成分を示す情報と、色の成分を示す情報との少なくとも一方の情報により定義されることを特徴とする、
    請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記陰影の成分を示す情報として、前記操作画像の光の当たり方を示す情報を保持していることを特徴とする、
    請求項2に記載の情報処理装置。
  4. 前記プロセッサは、前記入力操作として、タッチ操作またはマウス操作との各々に応じて、前記光の当たり方を示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、
    請求項3に記載の情報処理装置。
  5. 前記プロセッサは、前記タッチ操作または前記マウス操作に応じて、前記光の当たり方を示す情報としての光の向きを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、
    請求項4に記載の情報処理装置。
  6. 前記プロセッサは、前記タッチ操作または前記マウス操作により指定された前記操作画像上の位置に応じて、前記光の向きを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、
    請求項5に記載の情報処理装置。
  7. 前記プロセッサは、ピンチ操作またはマウスホイール操作に応じて、前記光の当たり方を示す情報としての光の強さを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、
    請求項4に記載の情報処理装置。
  8. 前記プロセッサは、前記ピンチ操作のうちピンチアウトの操作が行われると、光が強くなるように前記光の強さを示す情報を修正し、ピンチインの操作が行われると、光が弱くなるように当該光の強さを示す情報を修正して前記操作画像の前記質感を変化させることを特徴とする、
    請求項7に記載の情報処理装置。
  9. 前記プロセッサは、前記入力操作を行うユーザが前記質感を感受可能な態様で、前記操作画像をユーザインターフェースに表示する制御を行うことを特徴とする、
    請求項1に記載の情報処理装置。
  10. 前記プロセッサは、前記質感を感受可能な態様として、外形を球体とした前記操作画像を、前記ユーザインターフェースに表示する制御を行うことを特徴とする、
    請求項9に記載の情報処理装置。
  11. 前記プロセッサは、前記ユーザインターフェースに表示された、前記操作画像の前記質感を定義する情報の組み合わせの中から、1の組み合わせを選択する操作に応じて、当該操作画像の当該質感を変化させることを特徴とする、
    請求項9に記載の情報処理装置。
  12. 前記プロセッサは、前記操作画像の前記質感を定義する前記情報の組み合わせとして、当該操作画像の当該質感を表現する複数の感性語の選択肢を、前記ユーザインターフェースにさらに表示する制御を行うことを特徴とする、
    請求項11に記載の情報処理装置。
  13. 前記プロセッサは、前記情報の組み合わせにより定義される前記質感を可視化した複数のイメージ画像の選択肢を、前記ユーザインターフェースにさらに表示する制御を行うことを特徴とする、
    請求項12に記載の情報処理装置。
  14. プロセッサを備え、
    前記プロセッサは、
    入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像と、編集対象となる対象画像とをユーザインターフェースに表示する制御を行い、
    前記ユーザインターフェースに表示した前記操作画像に対する入力操作を受け付け、
    前記入力操作に応じて、前記操作画像の外観から感受し得る質感を、前記対象画像に反映させることを特徴とする、
    情報処理装置。
  15. 入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御する操作制御手段と、
    前記操作画像および編集対象の対象画像をユーザインターフェースに表示する表示手段と、
    前記ユーザインターフェースに表示された前記操作画像に対する入力操作を受け付ける受付手段と、
    前記入力操作に応じて、前記操作画像の外観から感受し得る前記質感を、前記対象画像に反映させる反映手段と、
    を有することを特徴とする、
    情報処理システム。
  16. コンピュータに、
    入力操作を受付可能とし、当該入力操作に応じて外観から感受し得る質感が変化する操作画像を有する操作部を制御する機能と、
    編集対象となる対象画像を表示する表示部を制御する機能と、
    前記操作画像に対する前記入力操作に応じて、当該操作画像の外観から感受し得る前記質感を前記対象画像に反映させる機能と、
    を実現させるためのプログラム。
JP2022015334A 2022-02-03 2022-02-03 情報処理装置、情報処理システム、およびプログラム Pending JP2023113176A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022015334A JP2023113176A (ja) 2022-02-03 2022-02-03 情報処理装置、情報処理システム、およびプログラム
US17/895,452 US20230245353A1 (en) 2022-02-03 2022-08-25 Information processing apparatus, non-transitory computer readable medium, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022015334A JP2023113176A (ja) 2022-02-03 2022-02-03 情報処理装置、情報処理システム、およびプログラム

Publications (1)

Publication Number Publication Date
JP2023113176A true JP2023113176A (ja) 2023-08-16

Family

ID=87432368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022015334A Pending JP2023113176A (ja) 2022-02-03 2022-02-03 情報処理装置、情報処理システム、およびプログラム

Country Status (2)

Country Link
US (1) US20230245353A1 (ja)
JP (1) JP2023113176A (ja)

Also Published As

Publication number Publication date
US20230245353A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
AU2017200358B2 (en) Multiplatform based experience generation
US8773468B1 (en) System and method for intuitive manipulation of the layering order of graphics objects
WO2012071147A1 (en) Selection of foreground characteristics based on background
JPH01237595A (ja) 表示装置
US8502834B2 (en) Representing a printed product using pixel opacity and color modification
MX2012009334A (es) Metodo y aparato para generar una interfaz de usuario.
JP6687878B2 (ja) 情報処理装置およびプログラム
KR101993941B1 (ko) 안티앨리어싱 기법을 이용하여 텍스트를 렌더링하기 위한 커버리지 값의 캐싱 기법
CN106033334B (zh) 绘制界面元素的方法和装置
CN103034466A (zh) 可编程显示器辅助装置和程序及操作画面一并变更方法
US9495064B2 (en) Information processing method and electronic device
CN111540317A (zh) 亮度控制方法和装置、存储介质及相关设备
CN113632147A (zh) 使用机器学习的产品设计、配置和决策系统
US20190122396A1 (en) Program and information processing apparatus
CN109074324B (zh) 可编程显示器、终端装置及控制系统
JP7219997B1 (ja) ブロックオブジェクトの設計図を出力する方法
JP2023113176A (ja) 情報処理装置、情報処理システム、およびプログラム
JP2010170417A (ja) 表示画面設計支援装置及びプログラム
JP7468061B2 (ja) 画像処理装置、画像処理システムおよびプログラム
JP6167942B2 (ja) デザイン編集装置及びプログラム
JP5883936B2 (ja) プログラマブルコントローラシステム
JP6207694B2 (ja) プログラマブル表示器、プログラム
JP6095743B2 (ja) 支援装置、プログラム
JP5883953B2 (ja) プログラマブルコントローラシステム、そのプログラマブル表示器、作画エディタ装置、プログラム
JP7466123B2 (ja) コンピュータプログラム、サーバ装置、端末装置、プログラム生成方法、及び方法