JP2023534089A - 反応型絵製作サービス提供システム及びこの制御方法 - Google Patents

反応型絵製作サービス提供システム及びこの制御方法 Download PDF

Info

Publication number
JP2023534089A
JP2023534089A JP2022560310A JP2022560310A JP2023534089A JP 2023534089 A JP2023534089 A JP 2023534089A JP 2022560310 A JP2022560310 A JP 2022560310A JP 2022560310 A JP2022560310 A JP 2022560310A JP 2023534089 A JP2023534089 A JP 2023534089A
Authority
JP
Japan
Prior art keywords
image
picture production
terminal
dynamic image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022560310A
Other languages
English (en)
Other versions
JP7459415B2 (ja
Inventor
ジョンミン キム,
スンア キム,
Original Assignee
パブロアーツ カンパニー インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パブロアーツ カンパニー インク. filed Critical パブロアーツ カンパニー インク.
Publication of JP2023534089A publication Critical patent/JP2023534089A/ja
Application granted granted Critical
Publication of JP7459415B2 publication Critical patent/JP7459415B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • G09B11/10Teaching painting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Information Transfer Between Computers (AREA)
  • Toys (AREA)
  • Digital Computer Display Output (AREA)

Abstract

本発明は、ユーザとオブジェクト間に実時間相互作用が可能な絵製作サービスを提供する反応型絵製作サービス提供システムにおいて、ユーザの絵製作のための行動反応と関連したイベント情報を入力可能に構成される端末; 前記端末、ウェブ及び外部サーバとネットワークを構築して通信して、前記端末から入力されるイベント情報によって前記ウェブ及び外部サーバのうち少なくとも1つを通じて提供される動的画像に対する第1のデータと、予め保存された絵製作プログラムのドローイングツールを利用する信号に対する第2のデータをマッチングさせて任意のカスタム情報を生成して、前記生成されたカスタム情報によって予め設定された報知信号を出力する制御部; 及び前記端末に具備されて、前記制御部から出力された報知信号によって任意の画面上に視覚的にディスプレイする報知部を含むのを特徴として、ユーザが直接描いた絵を活用して相互作用可能な動的画像を具現して、生成しようとする動的画像のカテゴリー別にガイド画像を提供することでユーザの作業をより効率的に補助することができる効果がある。

Description

本発明は、ユーザが直接描いた絵を活用して、相互作用可能な動的画像を具現し、生成しようとする動的画像のカテゴリー別にガイド画像を提供することで、ユーザの作業をより効率的に補助することができる反応型絵製作サービス提供システム及びこの制御方法に関する。
一般に、マンガやカリグラフィーのような絵は、既存には、オフライン上で印刷媒体を通じてのみ提供されているが、最近、コンピュータグラフィック技術とマルチメディア機器の発達により、ユーザがオンライン上で所望する様々な画像を検索し、容易に得られるようになっている。
さらには、最近は、スマートフォン、タブレットPCなど、タッチスクリーンを備えた様々な電子機器と、タッチペンのようなインターフェース装置が広く普及されて、ユーザ自らが様々な画像を生成することができる。
最近、コンピュータのグラフィック処理技術が発達することにつれ、既存の静的画像だけでなく、様々な動きと相互作用を表わすことができる動的画像が広く使われている。動的画像は、動画のように定められた流れによって再生される画像とは異なり、相互作用によって動くように製作された画像を意味する。
例えば、動的画像は、クリックやタッチにより物体が動くか、時間によって物体の色又は形状が変化するか、他の物体との物理的な相互作用を見せることが可能である。
このような動的画像は、既存の静的画像とは異なり、ユーザの注意を容易に換気することができることから、広告、教育、コンテンツ製作など、様々な分野で活用されている。
本発明の目的は、ユーザが直接描いた絵を活用して、相互作用可能な動的画像を具現し、生成しようとする動的画像のカテゴリー別にガイド画像を提供することで、ユーザの作業をより効率的に補助することができる反応型絵製作サービス提供システム及びこの制御方法を提供することにある。
但し、本発明で解決しようとする技術的課題は、以上で言及した技術的課題に制限されず、言及していない更に他の技術的課題は、以下の記載から本発明が属する技術分野における通常の知識を有する者によって、明確に理解される。
前記のような目的を達成するための技術的手段である本発明の一実施例による、ユーザとオブェクトの間に実時間相互作用が可能な絵製作サービスを提供する反応型絵製作サービス提供システムであって、ユーザの絵製作のための行動反応に関するイベント情報を入力可能にする端末と、前記端末、ウェブ、及び外部サーバとネットワークを構築して通信すると共に、前記端末から入力されるイベント情報によって、前記ウェブ及び外部サーバの少なくとも1つを通じて提供される動的画像に対する第1のデータと、予め保存された絵製作プログラムのドローイングツールを用いる信号に対する第2のデータを整合して、任意のカスタム情報を生成し、前記生成されたカスタム情報によって予め設定された報知信号を出力する制御部と、前記端末に設けられ、前記制御部から出力された報知信号によって、任意の画面上に視覚的にディスプレイする報知部とを含むことを特徴とする。
前記絵製作プログラムは、キャンバス上に、点、線、面、型、色、光、質感、量感の少なくとも1つの絵画的表現が可能なドローイングツールを用いて、絵製作を行うための環境を支援するように構成されたグラフィックソフトウェアである。
前記制御部は、前記イベント情報によって、前記ウェブ及び外部サーバの少なくとも1つを通じて提供される動的画像のカテゴリーに対する決定が行われるようにし、前記決められたカテゴリーに該当する複数のガイド画像の少なくとも1つが、前記絵製作プログラム上におけるキャンバス領域に表示されるようにし、ユーザが、前記ガイド画像に基づいて前記ドローイングツールを用いながら直接描いたドローイング画像をデータとして保存し、前記保存されたドローイング画像に基づく新しい動的画像を生成する。
前記動的画像は、前記絵製作プログラム上におけるキャンバス領域内で流動可能に表現される玉画像を含み、前記絵製作サービス提供システムは、更に、前記端末に設けられ、方位を感知するジャイロセンサと、前記端末に設けられ、位置を感知する位置センサとを含み、前記イベント情報は、前記端末の勾配を変化させるユーザの第1の操作信号を含み、前記制御部は、前記ジャイロセンサ及び位置センサの少なくとも1つを通じて提供される端末勾配情報に対する第3のデータを付加的に整合して、前記カスタム情報に反映する。
前記制御部は、前記第1のデータが動的画像として玉画像が選択された値を現わし、前記第3のデータが、前記第1の操作信号による前記端末の勾配変化値を現わす場合、前記玉画像が前記勾配変化値に対応して、前記絵製作プログラム上におけるキャンバス領域内で転がるような流動をすると共に、前記ドローイングツールの絵画的表現に対する属性値が設定された第2のデータによって、前記玉画像が流動進行する跡が実時間表現される報知信号を出力する。
前記絵製作プログラムは、前記ドローイングツールのうち、任意の厚さを有する点、線、面に対する造形要素を表現する第1のアイコンに対して、前記イベント情報によって厚さ設定が可能となるように構成され、前記厚さ設定は、前記第1のアイコンがタッチ(クリック)するストロークにより行われ、前記制御部は、前記報知部に、前記設定された厚さの大きさに対応して、前記第1のアイコンのサイズが活性化した画面が提供されるようにする報知信号を出力する。
前記絵製作プログラムは、前記ドローイングツールのうち、色に対する造形要素を表現する第2のアイコンに対して、前記イベント情報によって色設定が可能となるように構成され、前記色設定は、前記第2のアイコンを1次的にタッチ(クリック)した後、所望する色を2次的にタッチ(クリック)するストロークにより行われ、前記制御部は、前記報知部に、前記第2のアイコンを含むドローイングツールの少なくとも一部アイコンが、前記設定された色と同じ色に活性化した画面が提供されるようにする報知信号を出力する。
また、上記のような目的を達成するための技術的方法である本発明の一実施例による、ユーザとオブジェクトの間に実時間相互作用が可能な絵製作サービスを提供する反応型絵製作サービス提供システムの制御方法であって、a) 端末により、イベント情報が入力されるステップと、b) 制御部が、前記ステップa)で入力されるイベント情報によって、前記ウェブ及び外部サーバの少なくとも1つにより提供される動的画像のカテゴリーに対する決定が行われるようにするステップと、c) 制御部が、前記ステップb)で決められたカテゴリーに該当する複数のガイド画像のうちの少なくとも1つが、絵製作プログラム上におけるキャンバス領域に表示されるようにするステップと、d) 制御部が、ユーザが、前記ガイド画像に基づいて、前記ドローイングツールを用いながら直接描いたドローイング画像をデータとして保存するステップと、e) 制御部が、前記ステップd)で保存されたドローイング画像に基づく動的画像を生成するステップと、f) 報知部が、前記ステップe)で生成された動的画像を任意の画面上にディスプレイするステップとを含み、前記動的画像は、前記報知部の画面内で、ユーザの入力に対応して相互作用を表わすことを特徴とする。
前記動的画像の相互作用は、前記動的画像のカテゴリーに関する。
前記動的画像の相互作用は、ユーザの入力に対応して、前記動的画像内の物体を動かすか、前記報知部の画面内の他の物体との物理的な相互作用を表わすか、前記動的画像に関する音声データを出力する動作を含む。
前記動的画像内の物体の動き、又は前記報知部の画面内の他の物体との物理的な相互作用方式は、予め保存された物理エンジンプログラムに基づいて決められる。
前記ガイド画像は、外郭線が点線で表示された物体画像を含み、前記ガイド画像の物体は、前記動的画像のカテゴリーに関する。
前記ステップf)は、f-1)前記動的画像が保存された経路を介して伝達された画像データをロードするステップを含む。
本発明によると、ユーザが直接描いた絵を活用して、相互作用可能な動的画像を具現し、生成しようとする動的画像のカテゴリー別にガイド画像を提供することで、ユーザの作業をより効率的に補助することができる。
また、本発明によると、端末に既装着された位置センサ及びジャイロセンサを用いて、お盆上の玉を動かして絵を描くような効果を提供することで、端末の勾配によって、ディスプレイをタッチしなくても、絵が描かれるより面白い絵製作環境を達成することができる。
但し、本発明より得られる効果は、以上で言及した効果に制限されず、言及していない更に他の効果は、以下の記載から、本発明が属する技術分野における通常の知識を有する者にとって、明確に理解される。
本発明の実施例による反応型絵製作サービス提供システムの電子的な構成を概略的に示す図である。 図1による図製作サービス提供システムにおいて、制御部の構成を示すブロック図である。 ジャイロセンサ及び位置センサとの作用による玉画像を用いた絵画表現の実施例を示す図である。 ジャイロセンサ及び位置センサとの作用による玉画像を用いた絵画表現の実施例を示す図である。 ドローイングツールをなすアイコンに対して、その属性設定が変換することにつれ、該当アイコンのサイズが対応変化してディスプレイされる実施例を示す図である。 ドローイングツールをなすアイコンに対して、その属性設定が変換するにつれ、アイコンの色が対応変化してディスプレイされる実施例を示す図である。 本発明の実施例による反応型絵製作サービス提供システムの制御方法を示すフローチャートである。 報知部の画面及びこれに表示されたガイド画像を示す図である。 ユーザに提供される例示的なガイド画像を示す図である。 報知部の画面上において、ユーザがガイド画像に沿って絵を描く状態を示す図である。 報知部の画面上において、ユーザが生成した動的画像が、他のオブジェクトと相互作用する状態を示す図である。
以下では、添付の図面を参考として、本発明の実施例について本発明が属する技術分野における通常の知識を有する者が容易に実施できるように詳しく説明する。しかし、本発明に関する説明は、構造的乃至機能的な説明のための実施例に過ぎないので、本発明の権利範囲は、本文に説明された実施例により制限されることと理解されてはいけない。すなわち、実施例は、様々な変更が可能であり、様々な形態を有することができるので、本発明の権利範囲は、技術的思想を実現することができる均等物を含むことと理解されなければならない。また、本発明で提示された目的又は効果は、特定の実施例がこれを全て含むべきであるか、このような効果のみを含むべきであるという意味ではないので、本発明の権利範囲は、これにより制限されることと理解されてはいけない。
本発明における用語の意味は、以下のように理解される。
「第1」、「第2」などの用語は、ある構成要素を他の構成要素から区別するためのものであり、これらの用語によって権利範囲が限定されてはいけない。例えば、第1の構成要素は、第2の構成要素と名付けられ、同様に、第2の構成要素も、第1の構成要素と名付けられることができる。ある構成要素が他の構成要素に「連結されて」いることは、該他の構成要素に直接連結されるともできるが、中間に他の構成要素が存在することもあり得ると理解される。これに対して、ある構成要素が他の構成要素に「直接連結されて」いることは、中間に他の構成要素が存在しないことと理解される。一方、構成要素間の関係を説明する他の表現、すなわち、「~間に」と「すぐ~間に」、又は「~に隣接する」と「~に直接隣接する」なども同様に理解される。
単数の表現は、文脈上、明らかに異なることを意味しない限り、複数の表現を含む。また、「含む」又は「有する」等の用語は、説示された特徴、数字、ステップ、動作、構成要素、パーツ、又はこれらを組み合わせたものが存在することを指定しようとすることであり、1つ又はその以上の他の特徴や数字、ステップ、動作、構成要素、パーツ、又はこれらを組み合わせたものの存在又は付加可能性を排除しないことと理解すべきである。
ここで用いられる全ての用語は、異なった定義をしない限り、本発明が属する分野における通常の知識を有する者によって一般に理解されることと同一の意味を有する。一般に使用される辞書に定義されている用語は、関連技術の文脈上有する意味と一致することと理解されるべきであり、本発明において明らかに定義されない限り、理想的又は過度に形式的な意味を有するものと理解できない。
図1は、本発明の実施例による反応型絵製作サービス提供システムの電子的な構成を概略的に示す図であり、図2は、図1による図製作サービス提供システムにおいて、制御部の構成を示すブロック図であり、図3及び図4は、ジャイロセンサ及び位置センサとの作用による玉画像を用いた絵画表現の実施例を示す図であり、図5は、ドローイングツールをなすアイコンに対して、その属性設定が変換するにつれ、該当アイコンのサイズが対応変化してディスプレイされる実施例を示す図であり、図6は、ドローイングツールをなすアイコンに対して、その属性設定が変換するにつれ、アイコンの色が対応変化してディスプレイされる実施例を示す図であり、図7は、本発明の実施例による反応型絵製作サービス提供システムの制御方法を示すフローチャートであり、図8は、報知部の画面及びこれに表示されたガイド画像を示す図であり、図9は、ユーザに提供される例示的なガイド画像を示す図であり、図10は、報知部の画面上において、ユーザがガイド画像に沿って絵を描く状態を示す図であり、図11は、報知部の画面上において、ユーザが生成した動的画像が他のオブジェクトと相互作用する状態を示す図である。
図1に示しているように、本発明による反応型絵製作サービス提供システム100は、ユーザとオブジェクトの間に、実時間相互作用が可能な絵製作サービスを提供する反応型絵製作サービス提供システムにおいて、端末110と、ウェブ120と、外部サーバ130と、制御部140と、報知部150とを含む。
但し、図1における構成要素は、本発明のために必須的な最小限の構成であるだけで、これよりも付加的な構成要素を有する絵製作サービス提供システムも具現可能である。
前記端末110は、キーボード、パッド、マウスなど、様々な公知の入力機器(図示せず)を含み、本発明の好適な実施例によると、前記ユーザに位置して、前記ユーザの絵製作のための行動反応に関するイベント情報を、ウェブ120、外部サーバ130、及び制御部140に入力可能にする。
ここで、前記端末110は、複数個に構成され、望ましくは、タブレットが適用されるが、これに限定されず、PC、スマートフォンなどが適用可能である。
このような前記端末110の構成は、通常の端末装置に該当するので、詳細構成は図示せず、それに関する具体的な説明は、省略することにする。
前記ウェブ120は、テキスト、グラフィック、画像、音響、ビデオなど、様々なマルチメディアを支援するように構成されたインターネットサービスであって、本発明によると、前記端末110に連結されて、前記端末110を利用するユーザに、絵製作に関する様々な公知のメディアは勿論、動的画像を提供する。
前記外部サーバ130は、前記ウェブ120と対応するように構成され、前記端末110、ウェブ120、及び制御部140とネットワークを形成するのが望ましく、前記ウェブ120に連動して、制御部140に予め設定されたプログラムをサービスする機能を果たす。
ここで、前記外部サーバ130は、前記ウェブ120と同様に、動的画像を提供するように構成され、前記プログラムは、絵製作に関する各種のデータからなるエディタ用プログラムであり、これは、公知の技術であって、該当関連分野の通常の知識を有する当業者によって、自由に変更設計可能である。
前記制御部140は、ウェブ120及び外部サーバ130に対応する絵製作プログラムが予め保存され、前記イベント情報によって能動的に反応して、ユーザとオブジェクトの間の相互作用が可能な動的画像を提供するための制御サーバであって、望ましくは、前記端末110、ウェブ120、及び外部サーバ130とネットワークを構築して、相互通信するようにするのが望ましい。
このような前記制御部140は、前記端末から入力されるイベント情報によって、前記ウェブ120及び外部サーバ130の少なくとも1つにより提供される動的画像に対する第1のデータと、予め保存された絵製作プログラムのドローイングツールを用いる信号に対する第2のデータとを整合して、任意のカスタム情報を生成し、前記生成されたカスタム情報によって、予め設定された報知信号を出力する機能を果たす。
このため、前記制御部140は、具体的には、前記図2を参照して、前記端末から入力されるイベント情報をデータ化するデータ生成部141と、前記データ生成部141により生成された前記イベント情報のデータによって、実時間反応するための前記絵製作プログラムを予め保存し、管理するように構成されるデータベース部142と、前記イベント情報のデータによる前記第1及び第2のデータを整合して、カスタム情報を生成するデータ処理部143と、前記データ処理部143により生成されたカスタム情報によって、予め設定された報知信号を出力する報知信号出力部144とを含む。
ここで、前記カスタム情報は、後述する新しい動的画像に対するデータに対応する情報を意味する。
例えば、前記制御部140は、イベント情報によって、前記ウェブ120及び外部サーバ130の少なくとも1つにより提供される動的画像のカテゴリーに対する決定が行われるようにし、前記決められたカテゴリーに該当する複数のガイド画像の少なくとも1つが、前記絵製作プログラム上におけるキャンバス領域に表示されるようにし、ユーザが前記ガイド画像に基づいて、前記ドローイングツールを用いながら、直接描いたドローイング画像をデータとして保存し、前記保存されたドローイング画像に基づく新しい動的画像を生成することができる。
本発明の前記動的画像のカテゴリーとは、例えば、動物、植物、事物、人間などの大分類から、犬、猫、アヒル、木、花、果物、男、女のように詳細的な小分類をいずれも含む概念である。
前記制御部140のデータベース部142には、それぞれのカテゴリーに該当するガイド画像データ、及び各カテゴリーの相互作用方式を述べるデータが予め保存される。
また、本発明による前記絵製作プログラムは、キャンバス上に、点、線、面、型、色、光、質感、量感の少なくとも1つの絵画的表現が可能なドローイングツール(Drawing Tool)を用いて、絵製作を行うための環境を支援するように構成されたグラフィックソフトウェアであり得る。
前記報知部150は、制御部140の前記報知信号出力部144から出力される報知信号によって、予め設定されたテキストと画像を任意の画面上に視覚的にディスプレイするもので、望ましくは、前記端末110に設けられるようにするのが望ましい。
このような前記報知部150は、液晶ディスプレイ(LCD)、薄膜トランジスタ液晶ディスプレイ(TFT LCD)、有機発光ダイオード(OLED)、フレキシブルディスプレイ、3次元ディスプレイ(3D display)のうち、少なくとも1つを含む。
一方、前記動的画像は、前記絵製作プログラム上におけるキャンバス領域内で流動可能に表現される玉画像を含み、本発明の前記絵製作サービス提供システム100は、端末110に設けられ、方位を感知するジャイロセンサ160と、前記端末110に設けられ、位置を感知する位置センサ170とを更に含む。
ここで、前記イベント情報は、端末110の勾配を変化させるユーザの第1の操作信号を含み、前記制御部140は、ジャイロセンサ160及び前記位置センサ170の少なくとも1つにより提供される端末勾配情報に対する第3のデータを付加的に整合させて、前記カスタム情報に反映することができる。
また、前記制御部140は、図3及び図4に示しているように、前記第1のデータが動的画像として玉画像が選択された値を示し、前記第3のデータが、前記第1の操作信号による前記端末110の勾配変化値を示す場合、前記玉画像が前記勾配変化値に対応して、前記絵製作プログラム上におけるキャンバス領域内で転がるような流動をすると共に、前記ドローイングツールの絵画的表現に対する属性値が設定された第2のデータによって、前記玉画像が流動進行する跡が実時間表現される第2の報知信号を出力する。
一方、図5に示しているように、前記絵製作プログラムは、ドローイングツールのうち、任意の厚さを有する点、線、面に対する造形要素を表現する第1のアイコンに対して、前記イベント情報によって、厚さ設定が可能となるように構成され、前記厚さ設定は、第1のアイコンがタッチ(クリック)するストロークにより行われ、前記制御部140は、報知部150に、前記設定された厚さのサイズに対応して、前記第1のアイコンのサイズが活性化した画面が提供されるようにする第3の報知信号を出力する。
また、図6に示しているように、前記絵製作プログラムは、ドローイングツールのうち、色に対する造形要素を表現する第2のアイコンに対して、前記イベント情報によって、色設定が可能となるように構成され、前記色設定は、第2のアイコンを1次的にタッチ(クリック)した後、所望する色を2次的にタッチ(クリック)するストロークにより行われ、前記制御部140は、報知部150に、前記第2のアイコンを含むドローイングツールの少なくとも一部のアイコンが、前記設定された色と同じ色に活性化した画面が提供されるようにする第4の報知信号を出力する。
ついで、このように構成された絵製作サービス提供システム100を制御する方法は、図7に示しているように、イベント情報入力ステップ(S100)と、カテゴリー決定ステップ(S100)と、ガイド画像表示ステップ(S200)と、ドローイング画像保存ステップ(S300)と、動的画像生成ステップ(S400)と、報知部ディスプレイステップ(S500)とを含む。
前記イベント情報入力ステップ(S100)では、端末110により、イベント情報が実時間入力される。
前記カテゴリー決定ステップ(S100)では、制御部140が、前記イベント情報入力ステップ(S100)で入力されるイベント情報によって、前記ウェブ120及び外部サーバ130の少なくとも1つにより提供される動的画像のカテゴリーに対する決定が行われるようにする。
前記ガイド画像表示ステップ(S200)では、制御部が、前記カテゴリー決定ステップ(S100)で決められたカテゴリーに該当する複数のガイド画像の少なくとも1つが、絵製作プログラム上におけるキャンバス領域に表示されるようにする。
例えば、ユーザがドローイングツールを実行させた後、生成しようとする画像のカテゴリーを決めると、前記制御部140は、予め保存された該当カテゴリーのガイド画像の1つ以上をロードして、報知部150を通じて表示されるようにする。
図8は、報知部150の画面に表示されたガイド画像を示すもので、前記画面には、ユーザが選択したカテゴリーに該当するガイド画像が表示され、左側には、ユーザが絵を描くときに必要なドローイングツールが表示される。
前記ドローイングツールには、例えば、絵線の太さ、種類、色などを選択するアイコンが表示される。
前記ガイド画像は、ユーザが容易に絵に沿って描くように補助するための画像であって、各画像毎にカテゴリーがタギングされていて、後に生成される動的画像の相互作用方式を決めるベースとなる。
例えば、ユーザが、「傘」カテゴリーを選択した場合、図8のように傘形状のガイド画像が表示され、これより生成された動的画像は、図11のように、画面内に雨粒を弾き出す相互作用を示すことができる。
図9は、ユーザに提供される例示的なガイド画像を示し、第1の画像は、「植物」、「木」、「クリスマスツリー」などのカテゴリーに該当し、第2の画像は、「果物」、「リンゴ」などのカテゴリーに該当し、第3の画像は、「動物」、「鳥」、「アヒル」などのカテゴリーに該当する。
図8及び図9に示しているように、前記ガイド画像内の物体は、外郭線が点線で表示され、ユーザが点線に沿って絵を描くか、色を塗るなどの活動を行うように誘導することができる。
前記ドローイング画像保存ステップ(S300)では、制御部140が、ユーザが前記ガイド画像に基づいて、前記ドローイングツールを用いて直接描いたドローイング画像をデータとして保存する。
図10は、キャンバス領域上において、ユーザがガイド画像に沿って絵を描く状態を示す。具体的に、ユーザは、左側ドローイングツールにおいて、ドローイング画像を描くことに必要な線の太さ、色、種類(例えば、筆、クレヨン、色鉛筆、蛍光ペンなど)などを選択する。
これを選択した後、ユーザは、入力機器(マウス、タッチペンなど)を用いて、画面上でガイド画像に沿って自由に絵を描くことができる。
前記動的画像生成ステップ(S400)では、制御部140が、前記ドローイング画像保存ステップ(S300)で保存されたドローイング画像に基づく新しい動的画像を生成する。
ここで、前記動的画像は、前記報知部の画面内で、ユーザの入力に対応して相互作用を示すことができ、保存された経路の参照により、他のアプリケーション内にロードされ、具体的な相互作用方式や規則に対しては、後述する。
前記報知部ディスプレイステップ(S500)では、報知部150が、前記動的画像生成ステップ(S400)で生成された動的画像を、任意の画面上にディスプレイする。
ここで、前記報知部ディスプレイステップ(S500)は、動的画像が保存された経路を介して伝達された画像データをロードするデータロードステップ(図示せず)を含む。
例えば、動的画像は、保存された経路の参照を通じて、様々なアプリケーション(例えば、SNSメッセンジャー、Eメール、画像処理アプリ、インターネットブラウザーなど)内にロードされ、各アプリケーションが動的画像のフォーマットを支援すると、該当アプリケーション内で相互作用が可能である。
本発明によると、前記動的画像の相互作用は、動的画像のカテゴリーに関連し、ユーザの入力に対応して、前記動的画像内の物体を動かすか、前記報知部150の画面内の他の物体との物理的な相互作用を表わすか、前記動的画像に関する音声データを出力する動作を含む。
また、前記動的画像内の物体の動き又は、前記報知部150の画面内の他の物体との物理的な相互作用方式は、予め保存された物理エンジンプログラムに基づいて決められ、上述したように、前記ガイド画像は、外郭線が点線で表示された物体画像を含み、前記ガイド画像の物体は、動的画像のカテゴリーに関連する。
図11は、前記報知部150の画面上において、ユーザが生成した動的画像が他のオブジェクトと相互作用する状態の一例を示す。
前記動的画像の相互作用は、様々な形態で具現可能であり、相互作用規則のうちの少なくとも一部は、前記動的画像のカテゴリー(すなわち、動的画像のベースとなるガイド画像のカテゴリーであって、ステップS100で決められる)に関連する。
例えば、前記図11でのように、「傘」カテゴリーに該当する動的画像の場合、画面上に表示された雨粒など、他のオブジェクトと衝突して雨粒を弾き出すなどの自然な相互作用が可能である。もし、動的画像が「傘」ではない「たき火」に該当する場合、雨粒と接触して火が消えるなどの相互作用を表わすことができる。
前記図11では、1つの例をあげて動的画像の相互作用について説明したが、相互作用の種類は、これに限定されず、様々な形態で具現可能である。
例えば、ユーザの入力(タッチ、マウスクリック、キーボード入力、音声入力など)に対応して、前記動的画像の物体を動かすか、相互作用画面内の他の物体との物理的な相互作用(例えば、2つの物体が衝突して変形するなど)を現わすか、動的画像に関する音声(例えば、木が揺れる音、動物泣き声など)を出力するように設計することができる。
特に、物体の動き又は、他の物体との物理的な相互作用方式は、前述したように、予め保存された物理エンジンプログラムに基づいて決められ、例えば、物理エンジンは、物体の形状、質感などの特性によって、他の物体を弾き出すか、破壊するなど、現実の物理法則を仮想空間で具現することができる。
これにより、ユーザは、自分が直接描いた画像が生きて動いているような印象を受けることができる。
前記図11において、傘が雨粒を弾き出す相互作用について説明すると、雨粒など、画面上の動くオブジェクトが動的画像の傘と衝突する場合、パーティクル形状に変形すると共に、衝突前の動きと反対方向に移動する動きを見せる。
これに関する簡単な方法としては、雨粒と傘などのオブジェクトをそれぞれ、一定のサイズの円に設定し、各オブジェクトの中心間距離が前記円の半径を加えた値よりも小さい場合、衝突であると判断することができる。
これより複雑な物理相互作用、例えば、衝突後の雨粒が飛び出る方向と状態は、傘の形状(傾斜など)、雨粒が動く速度などを考えて、具現することができる。
相互作用の他の例示としては、ユーザが描いた画像が、ユーザの入力によって実時間で現れるものであり、例えば、ユーザがマウスドラッグやタッチで画面上に線を描くと、予め生成された動的画像(花、植物絵など)が描かれる線に沿って現れるなど、様々な形態の相互作用を具現することができる。
上述したように本発明の好適な実施例に対する詳細な説明は、当業者が本発明を具現して実施できるように提供されている。前記では、本発明の好適な実施例を参照して説明したが、該当技術分野における熟練した当業者は、本発明の領域から逸脱しない範囲内で、本発明を様々に修正及び変更できる。例えば、当業者は、上述した実施例に記載された各構成を互いに組み合わせる方式で利用可能である。そこで、本発明は、ここに現れた実施形態に制限しようとすることではなく、ここで開示された原理及び新規の特徴と一致する最広の範囲を付与しようとすることである。
本発明は、本発明の精神及び必須の特徴を逸脱しない範囲で、他の特定の形態で具体化することができる。そこで、前記の詳細な説明は、全ての面で制限的に理解されてはいけず、例示的なことと考えられるべきである。本発明の範囲は、添付の請求項の合理的理解により決められ、本発明の等価的範囲内での全ての変更は、本発明の範囲に含まれる。本発明は、ここに現れた実施形態に制限しようとすることではなく、ここに開示された原理及び新規の特徴と一致する最広の範囲を付与する。また、特許請求の範囲で明示的な引用関係のない請求項を組み合わせて、実施例を構成するか、出願後の補正により、新たな請求項として含むことができる。

Claims (13)

  1. ユーザとオブジェクトの間に実時間相互作用が可能な絵製作サービスを提供する反応型絵製作サービス提供システムであって、
    ユーザの絵製作のための行動反応に関するイベント情報を入力可能にする端末と、
    前記端末、ウェブ、及び外部サーバとネットワークを構築して通信すると共に、前記端末から入力されるイベント情報によって、前記ウェブ及び外部サーバの少なくとも1つを通じて提供される動的画像に対する第1のデータと、予め保存された絵製作プログラムのドローイングツールを用いる信号に対する第2のデータを整合して、任意のカスタム情報を生成し、前記生成されたカスタム情報によって予め設定された報知信号を出力する制御部と、
    前記端末に設けられ、前記制御部から出力された報知信号によって、任意の画面上に視覚的にディスプレイする報知部とを含むことを特徴とする反応型絵製作サービス提供システム。
  2. 前記絵製作プログラムは、キャンバス上に、点、線、面、型、色、光、質感、量感の少なくとも1つの絵画的表現が可能なドローイングツールを用いて、絵製作を行うための環境を支援するように構成されたグラフィックソフトウェアであることを特徴とする請求項1に記載の反応型絵製作サービス提供システム。
  3. 前記制御部は、前記イベント情報によって、前記ウェブ及び外部サーバの少なくとも1つを通じて提供される動的画像のカテゴリーに対する決定が行われるようにし、前記決められたカテゴリーに該当する複数のガイド画像の少なくとも1つが、前記絵製作プログラム上におけるキャンバス領域に表示されるようにし、ユーザが、前記ガイド画像に基づいて前記ドローイングツールを用いながら直接描いたドローイング画像をデータとして保存し、前記保存されたドローイング画像に基づく新しい動的画像を生成することを特徴とする請求項2に記載の反応型絵製作サービス提供システム。
  4. 前記動的画像は、前記絵製作プログラム上におけるキャンバス領域内で流動可能に表現される玉画像を含み、
    前記絵製作サービス提供システムは、更に、
    前記端末に設けられ、方位を感知するジャイロセンサと、
    前記端末に設けられ、位置を感知する位置センサとを含み、
    前記イベント情報は、前記端末の勾配を変化させるユーザの第1の操作信号を含み、
    前記制御部は、前記ジャイロセンサ及び位置センサの少なくとも1つを通じて提供される端末勾配情報に対する第3のデータを付加的に整合して、前記カスタム情報に反映することを特徴とする請求項2に記載の反応型絵製作サービス提供システム。
  5. 前記制御部は、前記第1のデータが動的画像として玉画像が選択された値を現わし、
    前記第3のデータが、前記第1の操作信号による前記端末の勾配変化値を現わす場合、前記玉画像が前記勾配変化値に対応して、前記絵製作プログラム上におけるキャンバス領域内で転がるような流動をすると共に、前記ドローイングツールの絵画的表現に対する属性値が設定された第2のデータによって、前記玉画像が流動進行する跡が実時間表現される報知信号を出力することを特徴とする請求項4に記載の反応型絵製作サービス提供システム。
  6. 前記絵製作プログラムは、前記ドローイングツールのうち、任意の厚さを有する点、線、面に対する造形要素を表現する第1のアイコンに対して、前記イベント情報によって厚さ設定が可能となるように構成され、
    前記厚さ設定は、前記第1のアイコンがタッチ(クリック)するストロークにより行われ、
    前記制御部は、前記報知部に、前記設定された厚さの大きさに対応して、前記第1のアイコンのサイズが活性化した画面が提供されるようにする報知信号を出力することを特徴とする請求項2に記載の反応型絵製作サービス提供システム。
  7. 前記絵製作プログラムは、前記ドローイングツールのうち、色に対する造形要素を表現する第2のアイコンに対して、前記イベント情報によって色設定が可能となるように構成され、
    前記色設定は、前記第2のアイコンを1次的にタッチ(クリック)した後、所望する色を2次的にタッチ(クリック)するストロークにより行われ、
    前記制御部は、前記報知部に、前記第2のアイコンを含むドローイングツールの少なくとも一部アイコンが、前記設定された色と同じ色に活性化した画面が提供されるようにする報知信号を出力することを特徴とする請求項2に記載の反応型絵製作サービス提供システム。
  8. ユーザとオブジェクトの間に実時間相互作用が可能な絵製作サービスを提供する反応型絵製作サービス提供システムの制御方法であって、
    a) 端末により、イベント情報が入力されるステップと、
    b) 制御部が、前記ステップa)で入力されるイベント情報によって、前記ウェブ及び外部サーバの少なくとも1つにより提供される動的画像のカテゴリーに対する決定が行われるようにするステップと、
    c) 制御部が、前記ステップb)で決められたカテゴリーに該当する複数のガイド画像のうちの少なくとも1つが、絵製作プログラム上におけるキャンバス領域に表示されるようにするステップと、
    d) 制御部が、ユーザが、前記ガイド画像に基づいて、前記ドローイングツールを用いて直接描いたドローイング画像をデータとして保存するステップと、
    e) 制御部が、前記ステップd)で保存されたドローイング画像に基づく動的画像を生成するステップと、
    f) 報知部が、前記ステップe)で生成された動的画像を任意の画面上にディスプレイするステップとを含み、
    前記動的画像は、前記報知部の画面内で、ユーザの入力に対応して相互作用を表わすことを特徴とする反応型絵製作サービス提供システムの制御方法。
  9. 前記動的画像の相互作用は、前記動的画像のカテゴリーに関することを特徴とする請求項8に記載の反応型絵製作サービス提供システムの制御方法。
  10. 前記動的画像の相互作用は、ユーザの入力に対応して、前記動的画像内の物体を動かすか、前記報知部の画面内の他の物体との物理的な相互作用を表わすか、前記動的画像に関する音声データを出力する動作を含むことを特徴とする請求項9に記載の反応型絵製作サービス提供システムの制御方法。
  11. 前記動的画像内の物体の動き、又は前記報知部の画面内の他の物体との物理的な相互作用方式は、予め保存された物理エンジンプログラムに基づいて決められることを特徴とする請求項10に記載の反応型絵製作サービス提供システムの制御方法。
  12. 前記ガイド画像は、外郭線が点線で表示された物体画像を含み、
    前記ガイド画像の物体は、前記動的画像のカテゴリーに関することを特徴とする請求項8に記載の反応型絵製作サービス提供システムの制御方法。
  13. 前記ステップf)は、f-1)前記動的画像が保存された経路を介して伝達された画像データをロードするステップを含むことを特徴とする請求項8に記載の反応型絵製作サービス提供システムの制御方法。
JP2022560310A 2021-05-31 2021-11-16 反応型絵製作サービス提供システム及びこの制御方法 Active JP7459415B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2021-0070154 2021-05-31
KR20210070154 2021-05-31
KR10-2021-0155877 2021-11-12
KR1020210155877A KR102450263B1 (ko) 2021-05-31 2021-11-12 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법
PCT/KR2021/016773 WO2022255572A1 (ko) 2021-05-31 2021-11-16 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법

Publications (2)

Publication Number Publication Date
JP2023534089A true JP2023534089A (ja) 2023-08-08
JP7459415B2 JP7459415B2 (ja) 2024-04-02

Family

ID=82407069

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022560262A Active JP7446555B2 (ja) 2021-05-31 2021-11-16 双方向参加型絵製作サービス提供システム及びこの制御方法
JP2022560310A Active JP7459415B2 (ja) 2021-05-31 2021-11-16 反応型絵製作サービス提供システム及びこの制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022560262A Active JP7446555B2 (ja) 2021-05-31 2021-11-16 双方向参加型絵製作サービス提供システム及びこの制御方法

Country Status (4)

Country Link
US (2) US20230334734A1 (ja)
JP (2) JP7446555B2 (ja)
KR (8) KR102420577B1 (ja)
WO (2) WO2022255571A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102526254B1 (ko) 2023-02-03 2023-04-26 이가람 반응형 포스터 콘텐츠의 생성 및 이의 상호작용 제공 방법, 장치 및 시스템

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124689A (ja) * 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP2003067585A (ja) 2001-08-27 2003-03-07 Fumio Onuma 似顔絵商品流通サービスシステム
JP2004110714A (ja) * 2002-09-20 2004-04-08 Toyota Motor Corp 電子資料共同編集システム
JP2004139289A (ja) * 2002-10-17 2004-05-13 Hitachi Ltd 図面編集システムおよび方法
US20040174365A1 (en) * 2002-12-24 2004-09-09 Gil Bub Method and system for computer animation
KR100927866B1 (ko) * 2007-01-25 2009-11-23 한성대학교 산학협력단 상호작용형 이미지 콘텐츠 생성방법 및 이를 위한 장치와시스템
KR20090001498A (ko) 2007-04-19 2009-01-09 스토리블렌더 인코퍼레이티드 컨텐츠 공동제작 서비스 제공방법 및 그 시스템
CN107102721A (zh) * 2010-04-23 2017-08-29 意美森公司 用于提供触觉效果的系统和方法
US20120066577A1 (en) * 2010-09-09 2012-03-15 Microsoft Corporation Concurrent Editing of Online Drawings
US20140026036A1 (en) * 2011-07-29 2014-01-23 Nbor Corporation Personal workspaces in a computer operating environment
US20130031463A1 (en) * 2011-07-29 2013-01-31 Denny Jaeger Personal workspaces in a computer operating environment
KR101423524B1 (ko) * 2011-12-21 2014-08-01 주식회사 더클락웍스 그림 그리기 사용자 인터페이스 및 그림 공유 시스템과 그 방법
US8918453B2 (en) * 2012-01-03 2014-12-23 Qualcomm Incorporated Managing data representation for user equipments in a communication session
US8970476B2 (en) * 2012-02-09 2015-03-03 Vtech Electronics Ltd. Motion controlled image creation and/or editing
KR101434728B1 (ko) * 2012-05-15 2014-08-29 조현근 영상 통화 시스템에서의 영상 통화 중 드로잉 협업 방법
KR101334865B1 (ko) * 2012-05-23 2013-12-03 이예찬 창의력 개발을 위한 유, 아동용 인터랙티브 그림 제작 방법
KR20140085048A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 멀티 디스플레이 장치 및 제어 방법
KR102183448B1 (ko) * 2013-04-26 2020-11-26 삼성전자주식회사 사용자 단말 장치 및 그 디스플레이 방법
KR20150066687A (ko) * 2013-12-09 2015-06-17 홍충식 실시간 화면 공유 메신저
US20150341399A1 (en) * 2014-05-23 2015-11-26 Samsung Electronics Co., Ltd. Server and method of providing collaboration services and user terminal for receiving collaboration services
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
KR101761233B1 (ko) * 2015-09-02 2017-07-25 (주)옐리펀트 어린이의 자작그림을 이용한 인터랙티브 애니메이션 제작서비스 제공시스템
US10334002B2 (en) * 2015-09-23 2019-06-25 Edoardo Rizzi Communication device and method
KR20170089252A (ko) * 2016-01-26 2017-08-03 박재동 그래픽 디자인 사용자 인터페이스와 그래픽 소스 공유 시스템 및 방법
US9832308B1 (en) * 2016-05-12 2017-11-28 Google Inc. Caller preview data and call messages based on caller preview data
US11126325B2 (en) * 2017-10-23 2021-09-21 Haworth, Inc. Virtual workspace including shared viewport markers in a collaboration system
US10616666B1 (en) * 2018-02-27 2020-04-07 Halogen Networks, LLC Interactive sentiment-detecting video streaming system and method
KR102159326B1 (ko) 2018-12-06 2020-09-23 주식회사 마이더스터치 작가체학습단말기 및 시스템
KR102280805B1 (ko) * 2018-12-06 2021-07-23 주식회사 파블로아트컴퍼니 단말기
KR102184162B1 (ko) * 2019-11-13 2020-12-11 유시영 반응형 웹툰 제작 시스템 및 방법
KR102558566B1 (ko) * 2021-03-09 2023-07-24 (주)비케이 벡터 이미지의 재생방법

Also Published As

Publication number Publication date
US20230334734A1 (en) 2023-10-19
US20230325070A1 (en) 2023-10-12
WO2022255571A1 (ko) 2022-12-08
KR102484310B1 (ko) 2023-01-04
KR20220162102A (ko) 2022-12-07
KR102484311B1 (ko) 2023-01-04
KR102450263B1 (ko) 2022-10-04
KR102476443B1 (ko) 2022-12-15
KR20220162100A (ko) 2022-12-07
JP7446555B2 (ja) 2024-03-11
KR20220162098A (ko) 2022-12-07
JP7459415B2 (ja) 2024-04-02
KR20220162099A (ko) 2022-12-07
KR102476442B1 (ko) 2022-12-15
JP2023532620A (ja) 2023-07-31
KR102484309B1 (ko) 2023-01-04
KR102420577B1 (ko) 2022-07-14
KR20220162103A (ko) 2022-12-07
KR20220162101A (ko) 2022-12-07
WO2022255572A1 (ko) 2022-12-08
KR102476444B1 (ko) 2022-12-15

Similar Documents

Publication Publication Date Title
Park et al. Tangible augmented prototyping of digital handheld products
CN108463784A (zh) 交互式演示控制
CN105074640A (zh) 通过自由形式的草绘来参与演示
CN110663017B (zh) 多笔画智能墨水手势语言
KR102484310B1 (ko) 단말의 기울기에 따라 그림 제작이 가능한 반응형 시스템
de Souza Alcantara et al. Interactive prototyping of tabletop and surface applications
CN108292193B (zh) 动画数字墨水
Viyanon et al. Usability and performance of the leap motion controller and oculus rift for interior decoration
Schreiber et al. New interaction concepts by using the wii remote
Schwesig What makes an interface feel organic?
Sandberg Creative Coding on the web in p5. js: a Library where JavaScript Meets Processing
Khairuddin et al. Evaluating Students’ Emotional Response in Augmented Reality-Based Mobile Learning Using Kansei Engineering
Kray et al. Map plasticity
Parthiban et al. LUI: A multimodal, intelligent interface for large displays
TWI475420B (zh) Editable editing method of media interaction device and media interactive platform
Popat et al. Embodied interfaces: dancing with digital sprites
Chowdhury A pocket guide to HCI and UX design
KR20220136728A (ko) 사용자와 상호작용 가능한 동적 이미지를 구현하는 방법 및 이를 실행하기 위한 컴퓨터 프로그램
Huang et al. Research on the Communication Mode of Mobile Applications Under the Human-Computer Interaction Mode
US20230244325A1 (en) Learned computer control using pointing device and keyboard actions
Berger Modeling multimodal interactions and feedback for embodied geovisualization
Zhongliu et al. Research on Interactive System of Science Exhibition Based on Leap Motion
Zhang Innovative Applications of Image Media and Intelligent Service Systems
Cho et al. Production of Mobile English Language Teaching Application Based on Text Interface Using Deep Learning. Electronics 2021, 10, 1809
BELLANI MAIDE. Manual approach in digital environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7459415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150