JP2010176329A - 情報処理装置、アニメーション付加方法、及びプログラム - Google Patents

情報処理装置、アニメーション付加方法、及びプログラム Download PDF

Info

Publication number
JP2010176329A
JP2010176329A JP2009017192A JP2009017192A JP2010176329A JP 2010176329 A JP2010176329 A JP 2010176329A JP 2009017192 A JP2009017192 A JP 2009017192A JP 2009017192 A JP2009017192 A JP 2009017192A JP 2010176329 A JP2010176329 A JP 2010176329A
Authority
JP
Japan
Prior art keywords
input
animation
unit
information
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009017192A
Other languages
English (en)
Other versions
JP4752921B2 (ja
Inventor
Osamu Oba
統 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009017192A priority Critical patent/JP4752921B2/ja
Priority to EP09252790.2A priority patent/EP2214090A3/en
Priority to US12/691,678 priority patent/US8860730B2/en
Priority to CN201010105807A priority patent/CN101833413A/zh
Publication of JP2010176329A publication Critical patent/JP2010176329A/ja
Application granted granted Critical
Publication of JP4752921B2 publication Critical patent/JP4752921B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Numerical Control (AREA)

Abstract

【課題】簡単な操作でオリジナルのアニメーションをオブジェクト付加することが可能な情報処理装置を提供すること。
【解決手段】オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録部と、前記入力情報記録部により記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御部と、を備える、情報処理装置が提供される。
【選択図】図3

Description

本発明は、情報処理装置、アニメーション付加方法、及びプログラムに関する。
昨今の半導体技術や情報技術の進歩に伴い、比較的安価で高性能な情報処理装置が職場や一般家庭内に深く浸透してきている。この種の情報処理装置においては、オペレーティング・システムが提供する実行環境下で各種のアプリケーションを起動することができる。このような情報処理装置で使用されるアプリケーションの種類は、ワープロ、表計算、データベース、通信、グラフィックスなど多岐にわたる。例えば、演算能力や描画能力が高い情報処理装置においては、リアリティの高いグラフィックスを比較的容易に作成したり、作成したグラフィックスに変形処理を施したりすることができる。その一例として、描画オブジェクトにアニメーションを付加する技術が知られている。ここで言うアニメーションとは、描画オブジェクトの移動、伸縮、回転等の変形動作のことである。
例えば、種々のプレゼンテーション用アプリケーションにおいては、画面上で描画したオブジェクトを選択し、そのオブジェクトに付加したいアニメーションをメニュー項目の中から選ぶことで、オブジェクトにアニメーションを付加することができる。また、下記の特許文献1には、表示画面上でユーザから入力された手書きストロークに従って描画を行なう画像編集装置に関し、隣接する描画オブジェクト間に働く引力又は斥力の相互作用を考慮してアニメーション作用を生成する技術が開示されている。つまり、この技術は、描画オブジェクトに付加された属性値に基づいて描画オブジェクト間に働く相互作用を表現し、その相互作用を加味してアニメーションを生成するというものである。
特許第3861690号公報
このように、描画オブジェクトにアニメーションを付加する技術は従前より知られている。しかしながら、これらの技術を用いても、ユーザが自由に描いた軌跡に沿って、その軌跡を描いた速度を再現するように描画オブジェクトを動作させることはできない。例えば、プレゼンテーション用アプリケーションでは、ユーザが自由に描いた軌跡に沿って描画オブジェクトを移動させる機能が搭載されているものもある。しかし、この機能では、プリセットされた速度で描画オブジェクトが移動してしまう。また、プリセットされた速度を変更する場合、速度変更用のメニュー項目を呼び出して変更する必要があるため、ユーザの操作が煩雑になってしまう。特に、小型の電子機器等においては、入力デバイスの操作性が比較的低いため、入力工程を簡略化して操作性を高めることが求められる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、比較的簡略化された入力工程で描画オブジェクトの移動軌跡及び移動速度の情報を入力することが可能な、新規かつ改良された情報処理装置、アニメーション付加方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録部と、前記入力情報記録部により記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御部と、を備える、情報処理装置が提供される。
また、上記の情報処理装置は、前記オブジェクトを描画するための描画モードと前記オブジェクトの移動軌跡を入力するための軌跡入力モードとを切り替えるモード切替部と、前記入力手段の種類を判別する入力手段判別部と、をさらに備えていてもよい。この場合、前記モード切替部は、前記入力手段判別部により前記入力手段の種類が第1の入力手段であると判別された場合に前記描画モードに切り替え、前記入力手段判別部により前記入力手段の種類が前記第1の入力手段とは異なる第2の入力手段であると判別された場合に前記軌跡入力モードに切り替える。
また、前記オブジェクトを含む領域内には複数の部分領域が設けられ、当該各部分領域には前記移動の動作を含む所定の動作種別が設定されていてもよい。この場合、上記の情報処理装置は、オブジェクトの移動軌跡が入力された際、当該入力操作の最初に前記入力手段で接触された位置が前記複数の部分領域のいずれに含まれるかを検知し、当該検知結果に応じて前記動作種別を選択する動作種別選択部をさらに備える。そして、前記オブジェクト動作制御部は、前記動作種別選択部で選択された動作種別の動作を行うように前記オブジェクトを動作させる。
また、前記動作種別選択部は、前記移動の動作とは異なる動作種別が設定されている部分領域を検知した場合に前記入力情報記録部により記録された移動軌跡の情報に基づいて当該移動軌跡の形状に応じた動作種別を選択するように構成されていてもよい。
また、複数の前記入力手段で前記移動軌跡が入力された場合、前記入力情報記録部は、前記各入力手段で入力された移動軌跡の情報を記録する。さらに、前記動作種別選択部は、前記入力情報記録部により記録された前記各入力手段に関する移動軌跡の情報に基づいて動作種別を選択する。
また、前記オブジェクトを含む領域は、当該オブジェクトの全体を含むことが可能な最も小さい1つの矩形領域よりもサイズが小さい小矩形領域を複数個隣接して形成されており、当該各小矩形領域が前記オブジェクトの一部を含むように構成されていてもよい。
また、上記の情報処理装置は、所定時間毎に前記入力手段の位置座標を検知する入力位置検知部と、前記入力位置検知部で所定時間毎に検知された前記入力手段の位置座標間を補間する補間座標を算出する補間座標算出部と、をさらに備えていてもよい。この場合、前記入力情報記録部は、前記入力位置検知部で検知された位置座標、及び前記補間座標算出部で算出された補間座標を前記移動軌跡の情報として記録する。
また、前記オブジェクト動作制御部により前記オブジェクトが移動制御されている最中に前記入力手段による入力操作が検知された場合、前記動作種別選択部は、当該検知時点における前記部分領域の位置を基準に前記動作種別を選択するように構成されていてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録ステップと、前記入力情報記録ステップで記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御ステップと、を含む、アニメーション付加方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録機能と、前記入力情報記録機能で記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御機能と、をコンピュータに実現させるためのプログラムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、当該プログラムが記録されたコンピュータにより読み取り可能な記録媒体が提供されうる。
以上説明したように本発明によれば、比較的簡略化された入力工程で描画オブジェクトの移動軌跡及び移動速度の情報を入力することが可能になる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する本発明の実施形態に関する説明の流れについて簡単に述べる。まず、図1を参照しながら、プリセットされたアニメーションをオブジェクトに付加する方法について説明する。次いで、図2を参照しながら、ユーザが自由に入力した移動軌跡をアニメーションとしてオブジェクトに付加する方法について説明する。これら説明の中で、図1及び図2で示した方法が抱える課題について簡単に纏め、本発明の実施形態において解決される課題について述べる。
次いで、図3を参照しながら、同実施形態に係る情報処理装置100の全体的な機能構成について説明する。次いで、図4を参照しながら、情報処理装置100が有するアニメーション処理部106の詳細な機能構成について説明する。この説明の中で、同実施形態に係るアニメーション付加方法について詳細に説明する。具体的には、図5〜図9を参照しながら、同実施形態に係る移動アニメーションの付加方法が示される。次いで、図10を参照しながら、同実施形態に係る入力モードの切り替え方法について説明する。次いで、図11〜図13を参照しながら、同実施形態に係るアニメーション種別の判定方法について説明する。
次いで、図14、図15を参照しながら、同実施形態に係る他のアニメーション種別の判定方法について説明する。次いで、図16、図17を参照しながら、マルチタッチを利用した同実施形態に係る他のアニメーション種別の判定方法について説明する。次いで、図18を参照しながら、同実施形態に係るアニメーション対象領域の設定方法について説明する。次いで、図19を参照しながら、同実施形態に係る移動軌跡の補間方法について説明する。次いで、図20を参照しながら、同実施形態に係る移動中のオブジェクトにアニメーションを付加する方法について説明する。次いで、図21を参照しながら、情報処理装置100のハードウェア構成例について説明する。最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:アニメーション付加方法について
1−1:プリセットアニメーションの付加方法
1−2:自由軌跡に沿った移動アニメーションの付加方法
2:実施形態
2−1:情報処理装置100の全体的な機能構成
2−2:アニメーション処理部106の詳細な機能構成
2−3:入力モードの切り替え方法について
2−4:アニメーション種別の判定方法について
2−4−1:部分領域による判定方法
2−4−2:入力軌跡による判定方法
2−4−3:マルチタッチによる判定方法
2−5:アニメーション対象領域の設定方法
2−6:移動軌跡の補間方法
2−7:移動中のオブジェクトに対するアニメーション付加方法
2−8:情報処理装置100のハードウェア構成
2−9:まとめ
<1:アニメーション付加方法について>
まず、本発明の一実施形態に係る技術について詳細な説明をするに先立ち、プレゼンテーション用アプリケーション等において見られるアニメーション付加方法について簡単に説明する。さらに、当該アニメーション付加方法が抱える課題について纏める。
[1−1:プリセットアニメーションの付加方法]
まず、図1を参照しながら、プリセットされたアニメーションをオブジェクトに付加する方法について説明する。図1に示すように、プレゼンテーション用アプリケーション等には、ユーザが描画したオブジェクトに対してプリセットのアニメーションを付加する機能が搭載されているものが多い。図1の例では、オブジェクトに対してスピン動作を付加する様子が示されている。なお、スピン動作の他にも拡大/縮小動作等が行える場合もある。但し、これらのプリセットアニメーションは、その動作がプリセットされたものに限られている。
このようなアプリケーションにおいてオブジェクトにスピン動作を付加する場合、ユーザは、アニメーションの設定メニュー(アニメーションメニュー)からスピン動作を付加するための項目を選択する必要がある。さらに、オブジェクトに付加されるスピンの動作速度はプリセットされた速度となる。通常、プリセットされた速度を変更することは変更できない場合が多い。仮に、変更可能であるとしても、速度変更用の設定項目にフォーカスを合わせてユーザが変更操作を行う必要がある。従って、操作性の良いマウスや数字キーが搭載されたキーボード等が接続されているPC等においては変更操作が容易であるが、そうした入力デバイスを利用し難い小型の電子機器においては操作が煩雑である。
[1−2:自由軌跡に沿った移動アニメーションの付加方法]
次に、図2を参照しながら、ユーザが自由に入力した軌跡に沿って移動するアニメーションをオブジェクトに付加する方法について説明する。図2に示すように、一部のプレゼンテーション用アプリケーション等には、ユーザが自由に描画した入力軌跡に沿ってオブジェクトを移動させる機能を有するものがある。この機能は、例えば、ユーザが移動対象となるオブジェクトを指定して入力軌跡を描くと、その入力軌跡に沿ってオブジェクトが所定の速さで移動するというものである。
但し、オブジェクトは、自由に描かれた入力軌跡に沿って移動するものの、その移動速度はプリセットされたものである。また、移動速度が変更できるものであっても、上記のプリセットアニメーションの場合と同様に煩雑な変更操作を伴う。さらに、移動アニメーションを実行するまでの操作工程も煩雑である。例えば、図2の例では、ユーザが移動対象のオブジェクトを選択し、アニメーションメニューを辿って入力軌跡の入力モードに移行した上で、入力軌跡の描画を行う必要がある。さらに、入力軌跡を描画が完了した後で実行操作を行うことにより、オブジェクトが入力軌跡に沿って移動する。このように、自由に描かれた入力軌跡に沿って移動するアニメーションを付加する場合、プリセットアニメーションを付加する操作に比べて操作工程が多く煩雑になる。
こうした課題に鑑み、後述する本発明の実施形態においては、ユーザが自由に入力した軌跡に沿って移動するアニメーションを付加する工程を簡略化する方法が提案される。さらに、同実施形態においては、単に入力軌跡に沿ってオブジェクトが移動するのみならず、入力軌跡の各位置における入力速度を再現するようにオブジェクトを移動させるアニメーションの付加方法が提案される。つまり、同実施形態は、ユーザの所望するリアルなアニメーション効果を比較的簡単な操作でオブジェクトに付加できるようにするものであり、アニメーションの付加操作に関する操作性の向上効果を期待するものである。以下、同実施形態に係る技術について詳細に説明する。
<2:実施形態>
本発明の一実施形態について説明する。本実施形態は、ユーザオリジナルのアニメーション効果を比較的簡単な操作でオブジェクトに付加する技術を提案するものである。この技術をタッチパネル等の入力デバイスを用いてアニメーションを付加する装置に適用することで、より大きな操作性の向上効果を得ることができる。
[2−1:情報処理装置100の全体的な機能構成]
まず、図3を参照しながら、本実施形態に係る情報処理装置100の全体的な機能構成について説明する。図3は、本実施形態に係る情報処理装置100の全体的な機能構成例を示す説明図である。
図3に示すように、情報処理装置100は、主に、入力デバイス102と、画像処理部104と、アニメーション処理部106と、出力デバイス108とを有する。
(入力デバイス102)
まず、入力デバイス102について説明する。入力デバイス102は、ユーザがオブジェクトを描画したり、オブジェクトに付加するアニメーションを生成したりする際に用いられる入力手段である。入力デバイス102としては、例えば、タッチパネルやタッチパッド等が用いられる。もちろん、情報を入力する際には、タッチパネルやタッチパッド等と組み合わせてスタイラスやマウス等が用いられる。
なお、入力デバイス102を介して入力された情報は、画像処理部104、及びアニメーション処理部106に入力される。例えば、入力デバイス102を用いて入力された文字や画像の情報は、オブジェクトの描画情報として画像処理部104に入力される。また、入力デバイス102を用いて入力された軌跡の情報は、軌跡情報としてアニメーション処理部106に入力される。
(画像処理部104)
次に、画像処理部104について説明する。画像処理部104は、入力デバイス102を介して入力されたオブジェクトの描画情報等を出力デバイス108に表示する手段である。また、画像処理部104は、ユーザがオブジェクトを描画する際に色彩を切り替えたり、描画したオブジェクトを記録したりするために用いるユーザインターフェースを出力デバイス108に表示する。
さらに、画像処理部104は、ユーザ操作に応じて、オブジェクトを描画するための描画モードと、アニメーションを付加するためのアニメーションモードとを切り替える。このモード切り替え処理は、例えば、ユーザインターフェースに含まれるモード切り替えボタンをユーザが押下した際に実行される。
ここで、図5及び図6に示す具体例を参照しながら、描画モード及びアニメーションモードについて簡単に説明する。図5は、描画モードにおいて出力デバイス108に表示される画面構成の一例である。一方、図6は、アニメーションモードにおいて出力デバイス108に表示される画面構成の一例である。
まず、図5を参照する。図5には、情報処理装置100の出力デバイス108に表示される表示画面の構成例が示されている。この表示画面には、ユーザがオブジェクトを描画したり、オブジェクトの移動軌跡を入力したりする際に用いる入力領域A1が設けられている。さらに、上記の表示画面には、ユーザ操作に用いられる操作ボタン群B1、B2が設けられている。操作ボタン群B1、B2は、画像処理部104により提供されるユーザインターフェースの一例である。
操作ボタン群B1には、描画色の変更に用いる色変更ボタンやモード切り替え用のトリガーボタンB12が含まれている。また、操作ボタン群B1には、描画した画像を消去するための消去ボタンが含まれている。さらに、操作ボタン群B1には、例えば、ペンの太さ、線の種類、特殊効果等を設定するための設定ボタンがさらに含まれていてもよい。
描画モードでは、例えば、ユーザが色変更ボタンを操作して描画色を設定し、入力領域A1に図形や文字を描く操作を行う。すると、画像処理部104により、ユーザが描いた図形がオブジェクトとして表示画面に表示される。このようにしてユーザは自由にオブジェクトを描画することができる。図5の例では円形のオブジェクトが1つ描かれているが、いくつのオブジェクトが描かれてもよい。
オブジェクトの描画が完了し、ユーザによりトリガーボタンB12が押下されると、画像処理部104は、描画モードからアニメーションモードへとモード切り替え処理を実行する。このとき、描画モードで描画されたオブジェクトがグルーピングされ、アニメーション対象領域A2が設定される。アニメーション対象領域A2が設定された後の画面構成例を示したのが図6である。
図6を参照すると、描画モードで描画されたオブジェクトにアニメーション対象領域A2が設定されている。なお、図6には、アニメーションモードにおける表示画面の画面構成例が示されている。図6の例では、アニメーション対象領域A2が矩形領域に設定されている。そして、アニメーション対象領域A2は、オブジェクトの全体を含むように表示されている。
上記のアニメーション対象領域A2とは、アニメーション効果の付加対象となる画面領域のことである。図6のようにアニメーションモードに移行し、アニメーション対象領域A2が設定されると、ユーザは、アニメーション対象領域A2に対してアニメーション効果を付加することが可能になる。もちろん、アニメーション効果が付加されるのは、アニメーション対象領域A2に含まれるオブジェクトである。
さて、トリガーボタンB12が押下され、描画モードからアニメーションモードへと移行する際、画像処理部104は、描画モードで描画されたオブジェクトの情報(以下、描画オブジェクト情報)をアニメーション処理部106に入力する。さらに、画像処理部104は、トリガーボタンB12が押下された時点でモード切り替えが行われたことを示すモード切り替え情報をアニメーション処理部106に入力する。なお、上記のアニメーション対象領域A2の設定処理は、アニメーション処理部106で実行される。そのため、画像処理部104からアニメーション処理部106に入力される描画オブジェクト情報は、描画モードで描かれたオブジェクトの情報である。
例えば、オブジェクトがベクターイメージとして描かれている場合、オブジェクトの形状や位置を特定するためのベクトル情報等がオブジェクトの情報としてアニメーション処理部106に入力される。一方、オブジェクトがラスターイメージとして描かれている場合、オブジェクトを形成する各点の位置情報等がオブジェクトの情報としてアニメーション処理部106に入力される。
本実施形態においては、オブジェクトがラスターイメージとして描かれる場合を例に挙げて説明することにする。もちろん、本実施形態はこれに限定されるものではない。なお、入力デバイス102を介して取得される描画データは、所定時間毎に検知される位置座標の集合である。従って、この場合、オブジェクトを描画した際に検知された位置座標の集合がオブジェクトの情報となる。
(アニメーション処理部106)
再び図3を参照し、アニメーション処理部106について説明する。上記の通り、アニメーション処理部106には、入力デバイス102からアニメーションに関する入力情報として軌跡情報が入力される。さらに、アニメーション処理部106には、画像処理部104からモード切り替え情報及び描画オブジェクト情報が入力される。アニメーション処理部106は、これら入力された情報を用いてオブジェクトにアニメーションを付加する手段である。特に、アニメーション処理部106は、軌跡情報を解析し、入力デバイス102を介して移動規制が入力された際の入力速度を再現するようにアニメーション効果を付加する機能を有する。
例えば、トリガーボタンB12が押下されて描画モードからアニメーションモードに遷移すると、アニメーション処理部106は、画像処理部104から入力された描画オブジェクト情報に基づいてアニメーション対象領域A2を設定する(図6を参照)。さらに、ユーザが移動軌跡を入力すると、アニメーション処理部106は、入力デバイス102から入力された軌跡情報を解析し、移動軌跡の入力速度を再現するようにアニメーション対象領域A2に含まれるオブジェクトにアニメーション効果を付加する。
ここで、図7及び図8を参照しながら、移動軌跡の入力方法、及びオブジェクトに付加されるアニメーション効果について簡単に説明する。図7は、アニメーションモードで入力される移動軌跡の操作工程を示す説明図である。図8は、図7に例示する移動軌跡が入力された場合にオブジェクトに対して付加されるアニメーション効果の一例を示す説明図である。なお、図7及び図8の例では、説明の都合上、入力デバイス102としてタッチパネルを想定している。
上記の通り、描画モードからアニメーションモードに遷移すると、アニメーション処理部106によりアニメーション対象領域A2が設定される(図6を参照)。その後、ユーザは、アニメーション対象領域A2を指10でタッチし、そのままオブジェクトを移動させたい所望の軌跡を描くことで移動軌跡を入力することができる。図7には、ユーザの入力した軌跡が入力軌跡として示されている。このように、本実施形態においてはユーザが自由に移動軌跡を描くことができる。また、図7には、白抜きの矢印(軌跡入力速度ベクトルTV)が示されている。各矢印の大きさは、ユーザが入力軌跡を入力した際の各点における速度の大きさを表すものである。
この軌跡入力速度ベクトルTVを参照すると、図7の例において、ユーザが移動軌跡を入力する際に入力軌跡の各位置における入力速度が一定していないことが分かる。後述するように、本実施形態においては、入力速度を反映したアニメーション効果がオブジェクトに付加される。そのため、ユーザは、移動軌跡を入力する際に入力速度を変化させることでオブジェクトの移動速度に変化を持たせることができる。なお、図7に太線で示した入力軌跡及び矢印で示した軌跡入力速度ベクトルTVは、説明のために示したものであり、実際には表示画面上に表示されない。
次に、図8を参照する。図7に例示した移動軌跡が入力されると、アニメーション処理部106は、アニメーション対象領域A2に含まれるオブジェクトにアニメーション効果を付加する。図8には、オブジェクトの移動軌跡が鎖線で示されている。さらに、図8にはオブジェクトの移動速度を示す移動速度ベクトルMVが矢印で示されている。移動速度ベクトルMVの長さは、各位置におけるオブジェクトの移動速度の大きさを示している。アニメーション処理部106は、図8に示すように、各位置における軌跡入力速度ベクトルTVの大きさを再現しながら入力軌跡に沿ってオブジェクトを移動させる。
このように、アニメーション処理部106は、図7のようにして入力された入力軌跡の情報を解析し、移動軌跡の各位置における移動速度ベクトルMVの大きさを算出する。そして、入力軌跡の各位置における軌跡入力速度ベクトルTVを再現するように、アニメーション対象領域A2に含まれるオブジェクトを移動させる(図8を参照)。但し、移アニメーション処理部106は、MV=TVとなるようにオブジェクトにアニメーション効果を付加するように構成されていてもよいし、MV=α×TV(α≠1)となるようにアニメーション効果を付加するように構成されていてもよい。なお、アニメーション処理部106による解析処理、及びアニメーション付加方法の詳細については後述する。
(出力デバイス108)
再び図3を参照し、出力デバイス108について説明する。出力デバイス108は、オブジェクト等を表示するための表示手段である。また、出力デバイス108には、オブジェクトの描画やアニメーションの付加操作に用いるユーザインターフェースも表示される。出力デバイス108としては、例えば、LCDやELD等のディスプレイ装置やタッチパネル等が用いられる。但し、上記のLCDは、Liquid Crystal Displayの略である。また、上記のELDは、Electro−Luminescence Displayの略である。出力デバイス108にタッチパネルを用いる場合、出力デバイス108と入力デバイス102とは一体に形成されてもよい。
以上、本実施形態に係る情報処理装置100の全体的な構成について説明した。以下では、本実施形態に係る情報処理装置100の特徴的な構成要素であるアニメーション処理部106について、より詳細に説明する。
[2−2:アニメーション処理部106の詳細な機能構成]
まず、図4を参照しながら、情報処理装置100が有するアニメーション処理部106の詳細な機能構成について説明する。図4は、本実施形態に係るアニメーション処理部106の詳細な機能構成例を示す説明図である。
図4に示すように、アニメーション処理部106は、主に、位置検知部112と、速度検知部114と、軌跡情報記憶部116と、入力デバイス判別部118と、動作判別部120とを有する。さらに、アニメーション処理部106は、アニメーション対象領域選択部122と、表示制御部124と、補間処理部126とを有する。
上記の通り、アニメーション処理部106には、画像処理部104から描画オブジェクト情報、及びモード切り替え情報が入力される。入力された描画オブジェクト情報、及びモード切り替え情報は、アニメーション対象領域選択部122に入力される。また、アニメーション処理部106には、アニメーションモードで移動軌跡が入力された際に入力デバイス102から軌跡情報が入力される。入力された軌跡情報は、位置検知部112、速度検知部114、入力デバイス判別部118に入力される。
アニメーション対象領域選択部122にモード切り替え情報が入力されると、アニメーション対象領域選択部122は、共に入力された描画オブジェクト情報に基づいてアニメーション対象領域A2を選択する。このとき、アニメーション対象領域選択部122は、例えば、描画オブジェクト情報を参照し、グルーピングされたオブジェクトの全体を含むことが可能な最小サイズの矩形領域をアニメーション対象領域A2として選択する。
もちろん、アニメーション対象領域A2の形状はこれに限定されず、閉じた領域であれば任意の形状に設定することが可能である。ここでは説明の都合上、アニメーション対象領域A2が矩形領域に設定されているものとする。アニメーション対象領域選択部122で選択されたアニメーション対象領域A2の情報は、動作判別部120、及び表示制御部124に入力される。
一方、位置検知部112に軌跡情報が入力されると、位置検知部112は、軌跡情報を軌跡情報記憶部116に記録する。また、速度検知部114に軌跡情報が入力されると、速度検知部114は、軌跡情報に基づいて入力速度を算出し、算出した入力速度の情報を軌跡情報記憶部116に記録する。例えば、移動軌跡が入力された際に所定時間間隔で取得された位置座標の集合として軌跡情報が表現されている場合、速度検知部114は、各位置座標間の距離を算出し、算出した各位置座標間の距離を所定時間で割ることで速度の大きさを算出する。なお、各位置座標における速度の方向については、隣接する位置座標を結ぶベクトルの方向として与えられる。
このように、軌跡情報記憶部116には、位置検知部112により記録された軌跡情報と、速度検知部114で算出された入力速度の情報とが記録される。軌跡情報記憶部116に記録された軌跡情報及び入力速度の情報は、動作判別部120、及び表示制御部124により読み出され、それぞれアニメーション種別の判別処理、及び表示制御処理に用いられる。なお、ここでは入力軌跡に基づく移動アニメーションを考えているため、アニメーション種別の判別処理に係る説明については後段において行うことにする。
上記の通り、表示制御部124は、軌跡情報記憶部116に記録された軌跡情報及び入力速度の情報を読み出す。軌跡情報及び入力速度の情報を読み出すと、表示制御部124は、軌跡情報に基づいてアニメーション対象領域A2に含まれるオブジェクトを移動させる。このとき、表示制御部124は、アニメーション対象領域選択部122で選択されたアニメーション対象領域A2の情報に基づいて移動対象となるオブジェクトを特定する。また、表示制御部124は、オブジェクトを移動させる際、移動軌跡の各位置座標における入力速度の情報を参照し、各位置座標の入力速度を再現するようにオブジェクトの移動速度を制御する。
このように、表示制御部124による表示制御を受け、出力デバイス108には、アニメーション効果が付加されたオブジェクトが表示される。以上説明したように、本実施形態においては、入力軌跡に沿ってオブジェクトが移動するのみならず、移動軌跡を入力する際の入力速度を加味したアニメーション効果が付加される。そのため、ユーザは、オブジェクトの移動速度を変更する際に、いちいちアニメーションメニューを呼び出したり、設定項目に設定値を入力したりせずに済む。また、移動中に速度が変化するようなオリジナリティの高いアニメーション効果をオブジェクトに付加することが可能になる。このように、本実施形態に係る技術を用いることで、複雑なアニメーション効果を少ない操作工程で直感的に付加することが可能になる。
(アニメーション付加処理の全体的な流れについて)
ここで、図9を参照しながら、本実施形態に係るアニメーション付加処理の全体的な流れについて簡単に説明する。図9は、本実施形態に係るアニメーション付加処理の全体的な流れを示す説明図である。
図9に示すように、まず、ユーザにより入力デバイス102を介して文字や図形が入力される(S102)。そして、入力デバイス102で検知された文字や図形の情報は、画像処理部104に入力される。さらに、ユーザによりトリガーボタンB12が操作され、描画モードからアニメーションモードに切り替えられると、画像処理部104により文字や図形がグルーピングされ(S104)、アニメーションの付加対象となるオブジェクトが形成される。
また、画像処理部104からモード切り替え情報、及び描画オブジェクト情報がアニメーション処理部106に入力され、アニメーション対象領域A2が設定される。次いで、ユーザにより所望の移動軌跡が入力されると(S106)、アニメーション処理部106によりアニメーションが付加される(S108)。このとき、アニメーション処理部106は、軌跡情報を解析し、ユーザの入力軌跡及び入力軌跡の各位置座標における入力速度を算出し、入力軌跡及び入力速度を再現するようにオブジェクトを移動させる。本実施形態においては、このような流れでアニメーションが付加される。
以上、本実施形態に係る情報処理装置100の構成、及びアニメーション付加処理の流れについて説明した。但し、上記の説明においては、移動アニメーションを前提とし、他のアニメーション効果を付加する構成については説明を省略していた。そこで、以下では、他のアニメーション効果を付加することも考慮し、簡単な操作で複数のアニメーションを切り替える方法について説明する。また、入力モードの切り替え方法やアニメーションの付加方法について、図5〜図8を参照しながら説明した方法とは異なる方法についても説明する。なお、これらの方法は、いずれも情報処理装置100により実現される。
[2−3:入力モードの切り替え方法について]
まず、図10を参照しながら、図5及び図6に示した方法とは異なる入力モードの切り替え方法について説明する。図10は、図5及び図6で示した方法とは異なる入力モードの切り替え方法を示す説明図である。
図10に示すモード切り替え方法は、入力デバイス102又は画像処理部104で入力手段の種別を判別できることが前提となる。このような入力手段の判別処理を実現するには、例えば、静電容量式タッチパネルの機能と電磁誘導式タッチパネルの機能とを併せ持つ入力デバイス102を利用すればよい。この場合、入力手段としては、例えば、先端に磁石が設けられたスタイラス12と指10とが用いられる。また、図10の例では、スタイラス12で入力された場合に描画モードに遷移し、指10で入力された場合にアニメーションモードに遷移するように設定されているものとする。
まず、ユーザは、スタイラス12を用いてアニメーションの付加対象となるオブジェクトを描画する。このとき、入力デバイス102では、電磁誘導式タッチパネルの機能でスタイラス12による入力が検知される。そのため、入力デバイス102又は画像処理部104において入力手段がスタイラス12であることが判別可能になる。入力手段がスタイラス12であることが判別されると、スタイラス12の入力は、描画モードで描かれたものと判別され、画像処理部104により出力デバイス108にオブジェクトとして表示される。ここで、入力手段をスタイラス12から指10に切り替えると(S105)、画像処理部104により描画モードからアニメーションモードに切り替え処理が実行される。
入力手段の切り替えは、指10が入力デバイス102に接触した時点で実行される。指10は、入力デバイス102の電磁誘導式タッチパネルの機能では検知できない。そのため、指10による入力は、静電容量式タッチパネルの機能でのみ検知される。その結果、入力デバイス102又は画像処理部104において入力手段が指10であることを判別することができる。入力手段が指10であると判別されると、画像処理部104は、描画モードからアニメーションモードに切り替え、モード切り替え情報及び描画オブジェクト情報をアニメーション処理部106に入力する。そして、アニメーション処理部106は、描画オブジェクト情報に基づいてアニメーション対象領域A2を設定する。
アニメーションモードに遷移すると、ユーザは、自由に移動軌跡を入力することができる。但し、移動軌跡の入力は指10で行う必要がある。一方、アニメーションモードにおいて、再びスタイラス12による入力を行うと、画像処理部104によりアニメーションモードから描画モードへの切り替え処理が実行される。このように、図10の方法を用いると、トリガーボタンB12を操作せずにモードの切り替え処理が可能になる。その結果、トリガーボタンB12を操作する工程が省略され、ユーザは、オブジェクトの描画工程とアニメーションの入力工程とをシームレスに行うことができるようになる。また、トリガーボタンB12を画面上に表示せずに済むようになり、表示領域を節約することが可能になる。
なお、上記の説明においては、静電容量方式と電磁誘導方式とを入力手段の判別処理に用いる方法について述べたが、本実施形態に係る技術の適用範囲はこれに限定されない。例えば、インセル方式のタッチパネルを用いれば、入力手段の大きさや形状を容易に検知することが可能になるため、入力手段の形状が変化した際にモードの切り替え処理が実行されるように構成することも可能になる。なお、インセル方式のタッチパネルとは、表示パネルに光学式センサアレイを搭載し、この光学式センサアレイにより表示パネルに接触又は近接した入力手段の位置や移動方向を検知する機構を有するものである。このような機構を利用する場合、入力手段の判別処理は、画像処理部104で実行される。
[2−4:アニメーション種別の判定方法について]
次に、図11〜図17を参照しながら、本実施形態に係るアニメーション種別の判定方法について説明する。ここでは、移動アニメーションの他に、回転アニメーションや伸縮アニメーションを想定する。もちろん、本実施形態に係る技術は、これら以外のアニメーション種別に対しても適用可能である。
(2−4−1:部分領域による判定方法)
まず、図11を参照しながら、タッチする位置に応じてアニメーション種別を切り替える方法について説明する。図11は、部分領域によるアニメーション種別の判定方法を示す説明図である。図11には、顔のオブジェクトが描かれており、さらに顔全体を含むようにアニメーション対象領域A2が描かれている。但し、アニメーション対象領域A2は、回転領域A21、伸縮領域A22、移動領域A23に分割されている。以下では、これらの分割領域のことを部分領域と呼ぶ場合がある。
(回転領域A21)
図11の例では、回転領域A21がアニメーション対象領域A2の四隅に設定されている。オブジェクトに回転アニメーションを付加したい場合、ユーザは、回転領域A21にタッチし、そのまま回転方向に指10等の入力手段を移動させればよい。すると、アニメーション処理部106は、付加すべきアニメーションが回転アニメーションであると判別し、入力手段の移動方向にオブジェクトを回転させる。例えば、図12に示すように、オブジェクトの隅をタッチし、右方向に回転するような入力軌跡を描くと、オブジェクトには右方向に回転するアニメーション効果が付加される。
(伸縮領域A22)
一方、伸縮領域A22は、例えば、アニメーション対象領域A2が有する四辺の中央付近に設定される。オブジェクトに伸縮アニメーションを付加したい場合、ユーザは、伸縮領域A22にタッチし、そのまま伸縮方向に指10等の入力手段を移動させればよい。すると、アニメーション処理部106は、付加すべきアニメーションが伸縮アニメーションであると判別し、入力手段の移動方向にオブジェクトを伸縮させる。例えば、図13に示すように、オブジェクトの一辺の中央付近をタッチし、右下方向に直線的な入力軌跡を描くと、オブジェクトには右下方向に伸縮するアニメーション効果が付加される。
(移動領域A23)
一方、移動領域A23は、例えば、アニメーション対象領域A2の中央に設定される。オブジェクトに移動アニメーションを付加したい場合、ユーザは、移動領域A23にタッチし、そのまま所望の移動軌跡に沿って指10等の入力手段を移動させればよい。すると、アニメーション処理部106は、付加すべきアニメーションが移動アニメーションであると判別し、入力軌跡に沿って入力速度を再現するようにオブジェクトを移動させる。
これらの判別処理は、主に、アニメーション処理部106の動作判別部120により実行される(図4を参照)。また、各部分領域は、アニメーション対象領域選択部122により設定される。例えば、アニメーション対象領域A2を設定した後、アニメーション対象領域選択部122は、アニメーション対象領域A2の四隅に回転領域A21を設定し、四辺の中央付近に伸縮領域A22を設定し、中央に移動領域A23を設定する。これらの部分領域の大きさは、例えば、アニメーション対象領域A2の大きさに応じて所定の割合で設定される。これら部分領域の情報は、動作判別部120に入力される。
動作判別部120は、軌跡情報記憶部116に記録されている軌跡情報を参照し、アニメーション付加操作で最初にタッチされた位置がどの部分領域に含まれるかを判別する。さらに、動作判別部120は、判別結果に応じて部分領域に対応付けられたアニメーションの種別を表示制御部124に入力する。例えば、アニメーション付加操作で最初にタッチされた位置が回転領域A21に含まれる場合、動作判別部120は、表示制御部124に対してアニメーション種別が回転アニメーションであることを示す情報を入力する。
アニメーションの種別が入力されると、表示制御部124は、軌跡情報記憶部116から軌跡情報を読み出し、入力されたアニメーション種別のアニメーション効果をオブジェクトに付加する。例えば、アニメーション種別が回転アニメーションであり、回転領域A21のタッチ後に右回転するような入力軌跡が描かれた場合、表示制御部124は、軌跡情報に基づいてオブジェクトを右方向に回転させるアニメーション効果を付加する。アニメーション種別に伸縮領域A22が選択された場合についても同様である。また、移動アニメーションについては既に説明した通りである。
このように、アニメーション対象領域A2を部分領域に分け、各部分領域にアニメーション種別を対応付けることで、オブジェクトに付加するアニメーションの種別を一連の操作においてシームレスに選択することが可能になる。この方法を用いると、アニメーション種別毎に階層化されたアニメーションメニューを辿って所望のメニュー項目を選択するプレゼンテーション用アプリケーション等に比べ、格段に高い操作性が実現される。
(2−4−2:入力軌跡による判定方法)
次に、図14及び図15を参照しながら、部分領域と入力軌跡とを組み合わせたアニメーション種別の判別方法について説明する。図14は、移動アニメーションと、その他のアニメーション種別とを区別するために分けられた部分領域の設定方法を示す説明図である。図15は、他のアニメーション種別を入力軌跡に基づいて判別する方法の一例を示す説明図である。
まず、図14を参照する。図14に示すように、アニメーション対象領域A2は、回転・伸縮領域A24と、移動領域A25とに分割されている。回転・伸縮領域A24は、回転アニメーション又は伸縮アニメーションに対応する。一方、移動領域A25は、移動アニメーションに対応する。アニメーション付加操作の最初でユーザが移動領域A25をタッチした場合、アニメーション処理部106は、アニメーション種別が移動アニメーションであると判別し、入力軌跡に沿って入力速度を再現するようにオブジェクトを移動させる。移動アニメーションの付加処理については既に述べた通りである。
一方、アニメーション付加操作の最初でユーザが回転・伸縮領域A24をタッチした場合、アニメーション処理部106は、アニメーションの種別を回転アニメーション及び伸縮アニメーションの中から判別する。この判別処理は、動作判別部120により実行される。アニメーションモードに切り替えられ、アニメーション対象領域A2が設定されると、アニメーション対象領域選択部122により部分領域の情報が動作判別部120に入力される。さらに、回転・伸縮領域A24が選択されると、動作判別部120は、軌跡情報記憶部116から軌跡情報を読み出し、軌跡情報に基づいて回転アニメーション又は伸縮アニメーションを選択する。
例えば、図15に示すような基準値を用いてアニメーション種別を判別する方法が考えられる。まず、動作判別部120は、アニメーション対象領域A2の中心座標を原点Oとし、原点Oから入力開始点P1までの距離L1、及び原点Oからn点後(nは自然数)の入力軌跡点P2までの距離L2を算出する。なお、入力開始点P1は、アニメーション付加操作の最初にユーザがタッチした点を表す。また、n点後の入力軌跡点P2は、入力軌跡を形成する各点のうち、入力開始点P1からn点後に位置する点を表す。さらに、動作判別部120は、原点Oと入力開始点P1とを結ぶ直線、及び原点Oと入力軌跡点P2とを結ぶ直線が成す角θ(回転角θ)を算出する。そして、動作判別部120は、算出した距離L1、L2を用いて伸縮率α=L2/L1を算出する。
これらのパラメータを算出すると、動作判別部120は、回転角θと回転角の閾値Thθとを比較する。さらに、動作判別部120は、伸縮率αと伸縮率の閾値Thαとを比較する。そして、Thθ<θの場合、動作判別部120は、アニメーション種別が回転アニメーションであると判別する。但し、Thθ<θ、かつ、Thα<αの場合、動作判別部120は、回転アニメーションであると判別する。また、Thα<αの場合、動作判別部120は、アニメーション種別が伸縮アニメーションであると判別する。そして、Thθ>θ、かつ、Thα>αの場合、動作判別部120は、回転アニメーションであると判別する。なお、判別基準は、実施の態様に応じて適宜変更してもよい。例えば、伸縮アニメーションを優先するならば、例えば、Thθ<θ、かつ、Thα<αの場合に伸縮アニメーションが選択されるように変更する方が好ましい。
上記のように、動作判別部120により判別されたアニメーション種別の情報は、表示制御部124に入力される。アニメーションの種別が入力されると、表示制御部124は、軌跡情報記憶部116から軌跡情報を読み出し、入力されたアニメーション種別のアニメーション効果をオブジェクトに付加する。例えば、アニメーション種別が回転アニメーションであり、右回転するような入力軌跡が描かれた場合、表示制御部124は、オブジェクトを右方向に回転させるアニメーション効果を付加する。アニメーション種別として伸縮アニメーションが選択された場合についても同様である。
アニメーション種別が多くなると、図11に示した方法では部分領域の種類が多くなり、ユーザが部分領域の種類や位置を覚えるのが大変になる。さらに、各部分領域のサイズが小さくなるため、操作性が低下してしまう。しかし、図14及び図15を参照しながら説明した方法では、入力軌跡に基づいてアニメーション種別が判別されるため、部分領域の種類や数を低減させることが可能になり、操作性が向上する。さらに、直感的なジェスチャーをアニメーション種別に対応付けておくことで、ユーザがアニメーション種別を容易に覚えておくことが可能になり、操作性が向上する。
(2−4−3:マルチタッチによる判定方法)
次に、図16及び図17を参照しながら、マルチタッチによるアニメーション種別の判別方法について説明する。図16は、マルチタッチによる回転アニメーションの付加方法を示す説明図である。図17は、マルチタッチによる伸縮アニメーションの付加方法を示す説明図である。
なお、シングルタッチであるか、マルチタッチであるかは、アニメーション処理部106の入力デバイス判別部118により軌跡情報に基づいて判別される。例えば、入力デバイス102で同時刻に複数の入力手段が検知された場合、入力デバイス判別部118は、マルチタッチであると判別する。この判別結果は、入力デバイス判別部118から動作判別部120に入力される。そして、動作判別部120は、入力デバイス判別部118による判別結果に応じてアニメーション種別の判別処理を切り替える。シングルタッチの場合には既に説明したいずれかの方法又は他の方法を用いてアニメーション種別の判別処理が実行され、マルチタッチの場合には以下で説明する判別処理が実行される。
例えば、図16に示すように、一方の指10Aでアニメーション対象領域A2がタッチされ、他方の指10Bで入力軌跡が描かれた場合、動作判別部120は、指10Aでタッチされた固定点P21を回転中心とする回転アニメーションであると判別する。このとき、動作判別部120は、例えば、一方の指10Aが静止し、他方の指10Bが移動するのを検知して回転アニメーションであると判別する。また、回転方向及び回転角度については、指10Bにより描かれた入力軌跡に基づいて設定される。シングルタッチの場合、回転中心がアニメーション対象領域A2の中心やオブジェクトの重心等に固定されてしまうが、マルチタッチの場合は自由に固定点P21を設定することができる。
また、図17に示すように、両方の指10A、10Bでアニメーション対象領域A2がタッチされ、押し広げられるように入力軌跡が描かれた場合、動作判別部120は、伸縮アニメーションであると判別する。このとき、動作判別部120は、例えば、両方の指10A、10Bが同じ時刻に移動していることを検知し、伸縮アニメーションであると判別する。なお、回転アニメーション、伸縮アニメーションの判別処理は、図15に示した方法で回転角θと伸縮率αとを基準に実行されてもよい。但し、原点Oを一方の指の位置に設定し、他方の指の入力開始点P1、及び入力軌跡点P2を用いて回転角θ及び伸縮率αが算出される。つまり、指10A、10Bの相対的な位置関係の変化からアニメーションの種別が判別されるのである。
このように、マルチタッチに対応する入力デバイス102を用いることで、より自由度の高いアニメーションを付加することが可能になる。なお、上記の説明においては、入力手段として指10A、10Bを例に挙げたが、本実施形態はこれに限定されない。例えば、2本のスタイラス12を用いてもよいし、指10とスタイラス12とを組み合わせて用いてもよい。さらに、指10やスタイラス12とは異なる他の入力手段を用いてもよい。
以上、本実施形態に係るアニメーション種別の判定方法について説明した。上記のようにしてアニメーション種別の判定処理が行われることで、複数のアニメーション種別を比較的簡単な操作で選択することが可能になる。アニメーションメニューを用いたアニメーション種別の選択方法に比べると、本実施形態に係る上記の方法は、いずれも操作工程を大きく低減させることに成功しており、操作性が格段に向上している。その結果、アニメーションの付加作業においてユーザのストレスを低減させ、ユーザの創作性を高めることに寄与する。
[2−5:アニメーション対象領域の設定方法]
次に、図18を参照しながら、矩形領域ではないアニメーション対象領域A2の設定方法について説明する。図18は、矩形領域ではないアニメーション対象領域A2の設定方法を示す説明図である。
これまでアニメーション対象領域A2がオブジェクトを含む矩形領域として設定されることを前提に説明してきた。しかし、凹凸の多い図形を矩形領域で囲むと、オブジェクトの境界から大きく離れた位置までがアニメーション対象領域A2に設定されてしまう。上記の通り、本実施形態においては、アニメーション対象領域A2の部分領域にアニメーション種別が設定される場合がある。このような場合、ユーザがオブジェクトから大きく離れた領域をタッチしてアニメーションの付加操作を行う必要が生じてしまう。その結果、操作の直感性が低下してしまう。
そこで、図18に示すように、アニメーション対象領域A2を1つの矩形領域にせず、オブジェクトを囲むことが可能な最小の矩形領域よりも小さな小領域の集まりで形成することにより、オブジェクトの形状に適合するアニメーション対象領域A2が設定できる。この設定処理は、アニメーション処理部106のアニメーション対象領域選択部122により実行される(図4を参照)。アニメーション対象領域選択部122は、描画オブジェクト情報に基づいてオブジェクトの全体を小領域で被覆し、その小領域の集合をアニメーション対象領域A2に設定する。
このように設定することで、アニメーション対象領域A2の境界点は、例えば、対象領域点P22から対象領域点P23になり、オブジェクトに近い位置に変更される。その結果、実際にはアニメーション対象領域A2を操作していても、ユーザは、オブジェクトを直接操作しているように感じられ、より直感的な操作体系が実現される。また、アニメーション対象領域A2がオブジェクトの形状に近づくことで、アニメーション対象領域A2の中心、重心、境界線等のアニメーション効果を施す際に参照する基準位置がオブジェクトの基準位置に近づく。その結果、アニメーション対象領域A2にアニメーション効果を付加していても、オブジェクトに直接アニメーション効果が付加されたように表示され、アニメーション効果のリアリティが向上する。
既に述べた通り、本実施形態においては、描画モードで描かれた画像や文字をグルーピングして1つのオブジェクトとして扱う。そのため、複数の画像や文字がグルーピングされると、個々の画像や文字が単純な形状でも全体として複雑な形になってしまうことが多い。こうした場合において、上記の小領域を用いたアニメーション対象領域A2の設定方法は有効であり、より自然なアニメーション効果を付加するのに大きく寄与する。
[2−6:移動軌跡の補間方法]
次に、図19を参照しながら、本実施形態に係る移動軌跡の補間方法について説明する。図19は、本実施形態に係る移動軌跡の補間方法を示す説明図である。既に述べた通り、入力デバイス102を介して入力される軌跡情報は、所定時間間隔で取得された位置座標の情報である。そのため、ユーザが入力手段を高速で移動させると、軌跡情報として取得される位置座標の間隔が大きく開いてしまう。そのため、このような軌跡情報に基づいてオブジェクトに移動アニメーションを付加すると、オブジェクトが不自然な動きをすることになる。そこで、このような不自然な動きが生じないように、入力軌跡に含まれる位置座標の間を補間してオブジェクトの動きを滑らかにする。
上記の補間処理は、アニメーション処理部106の補間処理部126により実行される(図4を参照)。繰り返しになるが、入力デバイス102は、図19の(A)に示すように所定時間間隔で入力手段の位置座標を取得する。所定時間は、例えば、10ミリ秒程度に設定される。もちろん、入力デバイス102の種類等により所定時間の長さは異なる。もし、入力手段の移動速度が一定であれば、図19の(A)に示すように、およそ一定間隔で配置される位置座標の集合が入力軌跡として取得される。一方、入力手段の移動速度が遅いと、図19の(B)に示すように狭い間隔で配置される位置座標の集合が入力軌跡として取得される。逆に、入力手段の移動速度が速いと、広い間隔で配置される位置座標の集合が入力軌跡として取得される。
そこで、補間処理部126は、表示制御部124に入力される軌跡情報に基づき、所定の補間方法を用いて各位置座標の間を補間する補間座標を算出する。所定の補間方法としては、例えば、線形補間やスプライン補間等が用いられる。もちろん、高次多項式で表現される数式を用いて補間座標が算出されるように構成されていてもよい。補間処理部126で算出された補間座標は、表示制御部124に入力される。そして、表示制御部124は、補間処理部126で算出された補間座標と軌跡情報に含まれる移動軌跡の各座標とに基づいてオブジェクトを移動させる。このような構成にすることで、入力デバイス102による位置座標の取得性能に依存せず、自然なアニメーション効果が実現される。
[2−7:移動中のオブジェクトに対するアニメーション付加方法]
次に、図20を参照しながら、移動中のオブジェクトに対してアニメーション効果を追加する方法について説明する。図20は、移動中のオブジェクトに対してアニメーション効果を追加する方法を示す説明図である。図20には、移動アニメーションが付加されたオブジェクトが示されている。
ここでは、時刻t=t2(t1<t2<t3)の時点で移動中のオブジェクトに対して回転アニメーションを追加する方法について考える。但し、移動中のオブジェクトは、回転アニメーションの追加操作中も移動動作を継続する。そのため、ユーザが操作している間にオブジェクトが移動してしまう。このような場合、ユーザがアニメーション種別を指定するためにタッチする対象であるアニメーション対象領域A2が移動しているため、回転アニメーションを付加する操作は非常に難しい。入力軌跡を描く場合も同様である。
そこで、本実施形態においては、移動中のオブジェクトにアニメーションを付加する場合、当該付加操作のためにユーザが入力手段で最初にタッチした時点のアニメーション対象領域A2の基準点を静止させる。図20の例では、時刻t=t2の時点におけるアニメーション対象領域A2が判別処理の基準となる。基準が静止した後は既に説明した回転アニメーションの付加操作を行うことで、オブジェクトに対して回転アニメーションを追加することができる。この場合、回転アニメーションは、表示制御部124により移動中のオブジェクトに反映される。ここでは回転アニメーションを例に挙げて説明したが、伸縮アニメーションやその他のアニメーションについても同様である。
このように、アニメーションを追加できるように構成することで、オブジェクトの動きを確認しながら、段階的に複雑なアニメーションを構築することが可能になる。また、アニメーションが複雑であっても、アニメーションを追加するためにタッチした時点のアニメーション対象領域A2が静止されるため、操作方法自体は変わらない。そのため、複雑なアニメーションを付加する際にも複雑な操作方法をユーザが覚えずに済み、ユーザの負担を大きく低減させることができる。
[2−8:情報処理装置100のハードウェア構成]
上記の情報処理装置100が有する各構成要素の機能は、例えば、図21に示すハードウェア構成を用いて実現することが可能である。例えば、各構成要素の機能は、コンピュータプログラムを用いて図21に示す情報処理装置を制御することにより実現される。なお、ここで示す情報処理装置の形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図21に示すように、この情報処理装置は、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926とにより構成される。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得情報を利用者に視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、メモリースティック、又はSD(Secure Digital)メモリカード等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
[2−9:まとめ]
最後に、本実施形態の情報処理装置が有する機能構成と、当該機能構成により得られる作用効果について簡単に纏める。
まず、本実施形態に係る情報処理装置の機能構成は次のように表現することができる。当該情報処理装置は、次に示すような入力情報記録部と、オブジェクト動作制御部とを有する。上記の入力情報記録部は、オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録するものである。また、上記のオブジェクト動作制御部は、前記入力情報記録部により記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるものである。
このように、移動軌跡と共に入力手段の移動速度を記録しておくことで、移動軌跡の各位置における移動速度の情報をも加味したアニメーションをオブジェクトに付加することができる。そのため、ユーザは、早く移動させたい場所では入力手段を早く移動させ、遅く移動させたい場所では入力手段を遅く移動させることで、速度の情報を容易に入力することが可能になる。その結果、ユーザの操作性を大きく向上させることができる。
また、上記の情報処理装置は、次のようなモード切替部と、入力手段判別部とを有していてもよい。上記のモード切替部は、前記オブジェクトを描画するための描画モードと前記オブジェクトの移動軌跡を入力するための軌跡入力モードとを切り替えるものである。また、上記の入力手段判別部は、前記入力手段の種類を判別するものである。そして、前記モード切替部は、前記入力手段判別部により前記入力手段の種類が第1の入力手段であると判別された場合に前記描画モードに切り替え、前記入力手段判別部により前記入力手段の種類が前記第1の入力手段とは異なる第2の入力手段であると判別された場合に前記軌跡入力モードに切り替える。
このように、入力手段として2種類の入力手段を用いることができる場合、その入力手段の種類を判別してモード切り替え処理を行うことにより、モードを切り替える操作工程を簡略化することができる。なお、入力手段にタッチパネルが用いられている場合、第1及び第2の入力手段として、例えば、指やスタイラスペン等を用いることができる。
また、前記オブジェクトを含む領域内には複数の部分領域が設けられ、当該各部分領域には前記移動の動作を含む所定の動作種別が設定されていてもよい。この場合、上記の情報処理装置は、オブジェクトの移動軌跡が入力された際、当該入力操作の最初に前記入力手段で接触された位置が前記複数の部分領域のいずれに含まれるかを検知し、当該検知結果に応じて前記動作種別を選択する動作種別選択部をさらに有する。そして、前記オブジェクト動作制御部は、前記動作種別選択部で選択された動作種別の動作を行うように前記オブジェクトを動作させる。
このように、オブジェクトの移動軌跡を入力する際に最初に接触したオブジェクトの部分に応じて動作種別を選択することで、動作種別の選択工程が簡略化されるため、操作性が大きく向上する。特に、動作種別が多数存在する場合、多くのメニュー項目から所望の動作種別を選択するための煩雑な操作工程が省略されるため、本実施形態に係る構成により得られる効果は大きい。
また、前記動作種別選択部は、前記移動の動作とは異なる動作種別が設定されている部分領域を検知した場合に前記入力情報記録部により記録された移動軌跡の情報に基づいて当該移動軌跡の形状に応じた動作種別を選択するように構成されていてもよい。本実施形態においては、アニメーションの種別として、移動の動作が基本となる。但し、上記の通り、移動の他にも、回転動作や伸縮動作等が動作種別に含まれていてもよい。そのため、動作種別として移動の動作とは異なる動作種別が設定されている部分領域が設けられることがある。しかし、部分領域の種類が多くなると、却って操作性が低下してしまうことがある。そこで、回転や伸縮等の動作は、共通した所定の部分領域に設定し、動作種別の判別を入力手段の移動軌跡に基づいて行うようにすることで、動作種別が多い場合に操作性を格段に向上させることができる。
例えば、入力手段により曲線が描かれた場合には回転動作が選択され、直線が描かれた場合には伸縮動作が選択されるように設定される。このように、移動軌跡の形状と動作種別とを対応付けることで、直感的なジェスチャー入力を組み合わせた分かりやすい操作体系が実現される。
また、複数の前記入力手段で前記移動軌跡が入力された場合、前記入力情報記録部は、前記各入力手段で入力された移動軌跡の情報を記録する。そして、前記動作種別選択部は、前記入力情報記録部により記録された前記各入力手段に関する移動軌跡の情報に基づいて動作種別を選択する。このように、本実施形態に係る技術は、複数の入力手段を用いた操作体系にも拡張することができる。例えば、入力手段にタッチパネルが用いられている場合、複数本の指で操作したり、指と他の入力手段との組み合わせで操作したりすることがある。複数の入力手段を同時に用いることで、複数の入力手段の相対的な位置関係や各入力手段で入力された移動軌跡の組み合わせに応じて処理を切り替えることができるようになる。また、ユーザが複数本の指で日常的に行う動作を擬似的に操作体系に取り入れることが可能になり、操作性及び機能性を格段に向上させることが可能になる。例えば、2本の指でオブジェクトを押し広げるような移動軌跡に伸縮動作を対応付ければ伸縮動作に関して直感的な操作体系が実現される。さらに、1本の指をオブジェクトの中心に置き、他の指でオブジェクトの端を回転させるような移動軌跡を回転動作に対応付ければ回転動作に関して直感的な操作体系が実現される。
また、前記オブジェクトを含む領域は、当該オブジェクトの全体を含むことが可能な最も小さい1つの矩形領域よりもサイズが小さい小矩形領域を複数個隣接して形成されており、当該各小矩形領域が前記オブジェクトの一部を含むように構成されていてもよい。ユーザが自由に描くオブジェクトの形状が矩形であるとは限らない。そのため、オブジェクトを矩形の領域で囲むと、オブジェクトの境界から大きく離れた部分に矩形領域の境界が位置することとなる場合がある。そのため、オブジェクトを矩形領域で囲み、その矩形領域に複数の部分領域を設定して動作種別の判別を行うと不都合が生じる場合がある。
例えば、矩形領域の四隅に位置する部分領域に回転動作を設定した場合、オブジェクトが円形であると、ユーザは、オブジェクトが描画されていない部分を把持して回転動作を行うことになってしまう。そこで、オブジェクトを囲む領域をオブジェクトの形状に近づけ、オブジェクトの形状に近い形状の領域に部分領域を設けるように構成する。このような構成にすることで、ユーザは、オブジェクトが表示されている領域にのみ注目すればよくなる。その結果、操作性を大きく向上させることが可能になる。
また、上記の情報処理装置は、所定時間毎に前記入力手段の位置座標を検知する入力位置検知部と、前記入力位置検知部で所定時間毎に検知された前記入力手段の位置座標間を補間する補間座標を算出する補間座標算出部とをさらに備えていてもよい。この場合、前記入力情報記録部は、前記入力位置検知部で検知された位置座標、及び前記補間座標算出部で算出された補間座標を前記移動軌跡の情報として記録する。デジタル機器においては、入力手段で入力される移動軌跡の情報は、所定時間毎に取得される位置座標の集まりとして記録される。そのため、入力手段の移動速度が大きいと、取得される位置座標の間隔が大きくなってしまう。
また、位置座標の間隔が大きくなると、その位置座標に基づいて移動表示されるオブジェクトの動きが不自然になってしまう。そこで、上記の情報処理装置は、所定時間毎に記録される位置座標の間を補間する座標(補間座標)を算出し、オブジェクトを移動表示させる際には補間座標を含めた位置座標の集合を用いることにする。このような構成にすることで、オブジェクトの動きが滑らかで自然なものになる。
また、前記オブジェクト動作制御部により前記オブジェクトが移動制御されている最中に前記入力手段による入力操作が検知された場合、前記動作種別選択部は、当該検知時点における前記部分領域の位置を基準に前記動作種別を選択するように構成されていてもよい。このような構成にすることで、オブジェクトが移動している最中であっても、容易に新たにアニメーションを付加することが可能になる。
上記構成のように、入力操作を開始した時点のオブジェクトの位置を基準にすると、ユーザは、オブジェクトの移動に惑わされず、安心して移動軌跡の入力操作を行うことができるようになる。その結果、ユーザは、一度に全てのアニメーションを付加するのではなく、移動の様子を見ながら徐々にアニメーションを追加していくことができる。そのため、アニメーションのイメージを確認しながら作業を進めていくことが可能になる。
(備考)
上記の位置検知部112、速度検知部114は、入力情報記録部の一例である。上記の表示制御部124は、オブジェクト動作制御部の一例である。上記の画像処理部104は、モード切替部及び入力手段判別部の一例である。上記の動作判別部120は、動作種別選択部の一例である。上記の入力デバイス102、指10、スタイラス12は、入力手段の一例である。上記のアニメーション種別は、動作種別の一例である。上記のアニメーション対象領域A2は、オブジェクトを含む領域の一例である。上記の小領域は、小矩形領域の一例である。上記の入力デバイス102は、入力位置検知部の一例である。上記の補間処理部126は、補間座標算出部の一例である。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
プリセットされたアニメーションの付加方法の一例を示す説明図である。 移動軌跡の入力方法の一例を示す説明図である。 本発明の一実施形態に係る情報処理装置の機能構成例を示す説明図である。 同実施形態に係るアニメーション処理部の機能構成例を示す説明図である。 同実施形態に係る描画モード画面の一例を示す説明図である。 同実施形態に係るアニメーションモード画面の一例を示す説明図である。 同実施形態に係るアニメーションモード画面の一例を示す説明図である。 同実施形態に係るアニメーションモード画面の一例を示す説明図である。 同実施形態に係るアニメーション付加処理の流れを示す説明図である。 同実施形態に係る入力モード切り替え方法の一例を示す説明図である。 同実施形態に係る動作種別判別方法の一例を示す説明図である。 同実施形態に係るアニメーションモード画面の一例を示す説明図である。 同実施形態に係るアニメーションモード画面の一例を示す説明図である。 同実施形態に係る動作種別判別方法の一例を示す説明図である。 同実施形態に係る動作種別判別方法の一例を示す説明図である。 同実施形態に係る動作種別判別方法の一例を示す説明図である。 同実施形態に係る動作種別判別方法の一例を示す説明図である。 同実施形態に係る入力領域の設定方法の一例を示す説明図である。 同実施形態に係る座標補間方法の一例を示す説明図である。 同実施形態に係る移動中のアニメーション付加方法の一例を示す説明図である。 同実施形態に係る情報処理装置のハードウェア構成例を示す説明図である。
10、10A、10B 指
12 スタイラス
100 情報処理装置
102 入力デバイス
104 画像処理部
106 アニメーション処理部
108 出力デバイス
112 位置検知部
114 速度検知部
116 軌跡情報記憶部
118 入力デバイス判別部
120 動作判別部
122 アニメーション対象領域選択部
124 表示制御部
126 補間処理部
A1 入力領域
A2 アニメーション対象領域
A21 回転領域
A22 伸縮領域
A23、A25 移動領域
A24 回転・伸縮領域
B1、B2 操作ボタン群
B12 トリガーボタン
TV 軌跡入力速度ベクトル
MV 移動速度ベクトル

Claims (10)

  1. オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録部と、
    前記入力情報記録部により記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御部と、
    を備える、情報処理装置。
  2. 前記オブジェクトを描画するための描画モードと前記オブジェクトの移動軌跡を入力するための軌跡入力モードとを切り替えるモード切替部と、
    前記入力手段の種類を判別する入力手段判別部と、
    をさらに備え、
    前記モード切替部は、
    前記入力手段判別部により前記入力手段の種類が第1の入力手段であると判別された場合に前記描画モードに切り替え、
    前記入力手段判別部により前記入力手段の種類が前記第1の入力手段とは異なる第2の入力手段であると判別された場合に前記軌跡入力モードに切り替える、請求項1に記載の情報処理装置。
  3. 前記オブジェクトを含む領域内には複数の部分領域が設けられ、当該各部分領域には前記移動の動作を含む所定の動作種別が設定されており、
    前記オブジェクトの移動軌跡が入力された際、当該入力操作の最初に前記入力手段で接触された位置が前記複数の部分領域のいずれに含まれるかを検知し、当該検知結果に応じて前記動作種別を選択する動作種別選択部をさらに備え、
    前記オブジェクト動作制御部は、前記動作種別選択部で選択された動作種別の動作を行うように前記オブジェクトを動作させる、請求項1に記載の情報処理装置。
  4. 前記動作種別選択部は、前記移動の動作とは異なる動作種別が設定されている部分領域を検知した場合に前記入力情報記録部により記録された移動軌跡の情報に基づいて当該移動軌跡の形状に応じた動作種別を選択する、請求項3に記載の情報処理装置。
  5. 複数の前記入力手段で前記移動軌跡が入力された場合、
    前記入力情報記録部は、前記各入力手段で入力された移動軌跡の情報を記録し、
    前記動作種別選択部は、前記入力情報記録部により記録された前記各入力手段に関する移動軌跡の情報に基づいて動作種別を選択する、請求項3に記載の情報処理装置。
  6. 前記オブジェクトを含む領域は、当該オブジェクトの全体を含むことが可能な最も小さい1つの矩形領域よりもサイズが小さい小矩形領域を複数個隣接して形成されており、当該各小矩形領域が前記オブジェクトの一部を含む、請求項1に記載の情報処理装置。
  7. 所定時間毎に前記入力手段の位置座標を検知する入力位置検知部と、
    前記入力位置検知部で所定時間毎に検知された前記入力手段の位置座標間を補間する補間座標を算出する補間座標算出部と、
    をさらに備え、
    前記入力情報記録部は、前記入力位置検知部で検知された位置座標、及び前記補間座標算出部で算出された補間座標を前記移動軌跡の情報として記録する、請求項1に記載の情報処理装置。
  8. 前記オブジェクト動作制御部により前記オブジェクトが移動制御されている最中に前記入力手段による入力操作が検知された場合、前記動作種別選択部は、当該検知時点における前記部分領域の位置を基準に前記動作種別を選択する、請求項3に記載の情報処理装置。
  9. オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録ステップと、
    前記入力情報記録ステップで記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御ステップと、
    を含む、アニメーション付加方法。
  10. オブジェクトの移動軌跡が入力された際、当該移動軌跡の入力に用いた入力手段の移動速度及び移動軌跡の情報を記録する入力情報記録機能と、
    前記入力情報記録機能で記録された移動速度及び移動軌跡の情報に基づき、前記入力手段の移動軌跡及び当該移動軌跡の各位置における移動速度を再現するように前記オブジェクトを移動させるオブジェクト動作制御機能と、
    をコンピュータに実現させるためのプログラム。
JP2009017192A 2009-01-28 2009-01-28 情報処理装置、アニメーション付加方法、及びプログラム Expired - Fee Related JP4752921B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009017192A JP4752921B2 (ja) 2009-01-28 2009-01-28 情報処理装置、アニメーション付加方法、及びプログラム
EP09252790.2A EP2214090A3 (en) 2009-01-28 2009-12-15 Information processing apparatus, animation method, and program
US12/691,678 US8860730B2 (en) 2009-01-28 2010-01-21 Information processing apparatus, animation method, and program
CN201010105807A CN101833413A (zh) 2009-01-28 2010-01-28 信息处理装置、动画附加方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009017192A JP4752921B2 (ja) 2009-01-28 2009-01-28 情報処理装置、アニメーション付加方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2010176329A true JP2010176329A (ja) 2010-08-12
JP4752921B2 JP4752921B2 (ja) 2011-08-17

Family

ID=42115545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009017192A Expired - Fee Related JP4752921B2 (ja) 2009-01-28 2009-01-28 情報処理装置、アニメーション付加方法、及びプログラム

Country Status (4)

Country Link
US (1) US8860730B2 (ja)
EP (1) EP2214090A3 (ja)
JP (1) JP4752921B2 (ja)
CN (1) CN101833413A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138035A (ja) * 2010-12-28 2012-07-19 Casio Comput Co Ltd 画像表示装置及びプログラム
JP2012160084A (ja) * 2011-02-01 2012-08-23 Dainippon Printing Co Ltd コンピュータ装置、入力システム、及びプログラム
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2013187595A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013186521A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014505937A (ja) * 2010-12-29 2014-03-06 マイクロソフト コーポレーション コンピュータデバイスにおけるタッチイベント予測
JP2014182481A (ja) * 2013-03-18 2014-09-29 Nk Works Co Ltd 画像処理プログラム及び画像処理装置
JP2015022695A (ja) * 2013-07-23 2015-02-02 三菱電機株式会社 ユーザインタフェース模擬装置
JP2015035663A (ja) * 2013-08-07 2015-02-19 辰巳電子工業株式会社 動画編集装置、動画編集方法およびプログラム
JP2018004795A (ja) * 2016-06-29 2018-01-11 株式会社Kansei Design 行動観察装置
JP2018067068A (ja) * 2016-10-17 2018-04-26 グリー株式会社 描画処理方法、描画処理プログラム及び描画処理装置
JP2018092681A (ja) * 2018-03-19 2018-06-14 グリー株式会社 制御プログラム、制御方法及び情報処理装置
JP2019016354A (ja) * 2017-07-04 2019-01-31 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 表情アイコンを入力するための方法及び装置
JP2020061193A (ja) * 2020-01-22 2020-04-16 グリー株式会社 制御プログラム、制御方法及び情報処理装置
KR20220013079A (ko) * 2020-07-24 2022-02-04 주식회사 한글과컴퓨터 프레젠테이션에서 개체의 회전을 통해 역동적인 애니메이션 효과의 재생을 가능하게 하는 전자 장치 및 그 동작 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5565320B2 (ja) * 2011-01-06 2014-08-06 富士通株式会社 情報処理装置及び情報処理プログラム
US20120326993A1 (en) * 2011-01-26 2012-12-27 Weisman Jordan K Method and apparatus for providing context sensitive interactive overlays for video
CN103918010B (zh) * 2011-11-24 2017-06-30 诺基亚技术有限公司 用于生成与多媒体内容相关联的动画图像的方法、装置和计算机程序产品
JP2013191011A (ja) * 2012-03-14 2013-09-26 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
KR102078390B1 (ko) 2012-07-30 2020-02-17 삼성전자 주식회사 멀티 터치를 통한 기하학적 도형을 그리는 방법 및 장치
EP2722745A1 (en) * 2012-10-17 2014-04-23 Advanced Digital Broadcast S.A. A method for operating a gesture-controlled graphical user interface
US20140189593A1 (en) * 2012-12-27 2014-07-03 Kabushiki Kaisha Toshiba Electronic device and input method
WO2014106910A1 (ja) * 2013-01-04 2014-07-10 株式会社ユビキタスエンターテインメント 情報処理装置及び情報入力制御プログラム
JP6015452B2 (ja) * 2013-01-07 2016-10-26 株式会社リコー 画像処理装置、方法およびプログラム
US10809865B2 (en) * 2013-01-15 2020-10-20 Microsoft Technology Licensing, Llc Engaging presentation through freeform sketching
KR102045413B1 (ko) 2013-01-16 2019-11-15 미츠오 하야시 영상 생성 장치, 영상 생성 프로그램이 저장된 매체, 및 영상 생성 방법
US10091367B2 (en) * 2013-11-29 2018-10-02 Kyocera Document Solutions Inc. Information processing device, image forming apparatus and information processing method
CN103744594A (zh) * 2013-12-27 2014-04-23 乐视网信息技术(北京)股份有限公司 一种移动的焦点的显示方法及装置
US10228775B2 (en) * 2016-01-22 2019-03-12 Microsoft Technology Licensing, Llc Cross application digital ink repository
US10163244B2 (en) * 2016-02-03 2018-12-25 Adobe Systems Incorporation Creating reusable and configurable digital whiteboard animations
US20170236318A1 (en) * 2016-02-15 2017-08-17 Microsoft Technology Licensing, Llc Animated Digital Ink
CN106126073A (zh) * 2016-06-12 2016-11-16 天脉聚源(北京)教育科技有限公司 一种移动目标对象的方法及装置
WO2020072831A1 (en) * 2018-10-03 2020-04-09 Dodles, Inc. Software with motion recording feature to simplify animation
US10685472B1 (en) * 2019-01-31 2020-06-16 Adobe Inc. Animation brushes
US11004249B2 (en) 2019-03-18 2021-05-11 Apple Inc. Hand drawn animation motion paths
AU2022204345B1 (en) * 2022-06-21 2023-06-15 Canva Pty Ltd Systems and methods for creating digital animations

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63106079A (ja) * 1986-10-23 1988-05-11 Fujitsu Ltd トラツピング処理方式
JPH02204791A (ja) * 1989-02-03 1990-08-14 Nippon Telegr & Teleph Corp <Ntt> 動画作成方法
JPH04304571A (ja) * 1991-04-01 1992-10-27 Canon Inc 画像処理装置
JPH10188014A (ja) * 1996-12-26 1998-07-21 Canon Inc 画像編集方法及び装置
JPH11149563A (ja) * 1997-11-19 1999-06-02 Sharp Corp 情報処理装置及び方法並びに情報処理プログラムを記録した記録媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5402151A (en) * 1989-10-02 1995-03-28 U.S. Philips Corporation Data processing system with a touch screen and a digitizing tablet, both integrated in an input device
JP2784825B2 (ja) * 1989-12-05 1998-08-06 ソニー株式会社 情報入力制御装置
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5926186A (en) * 1992-09-10 1999-07-20 Fujitsu Limited Graphic editing apparatus and method
US5519818A (en) * 1994-09-19 1996-05-21 Taligent, Inc. Object-oriented graphic picking system
US5729673A (en) * 1995-04-07 1998-03-17 Avid Technology, Inc. Direct manipulation of two-dimensional moving picture streams in three-dimensional space
US6208360B1 (en) * 1997-03-10 2001-03-27 Kabushiki Kaisha Toshiba Method and apparatus for graffiti animation
US6091427A (en) * 1997-07-18 2000-07-18 International Business Machines Corp. Method and system for a true-scale motion path editor using time segments, duration and synchronization
US6111590A (en) * 1997-07-18 2000-08-29 International Business Machines Corp. Method and system for a true scale motion path editor to create motion paths as independent entities
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
GB0017793D0 (en) * 2000-07-21 2000-09-06 Secr Defence Human computer interface
JP3861690B2 (ja) * 2002-01-07 2006-12-20 ソニー株式会社 画像編集装置及び画像編集方法、記憶媒体、並びにコンピュータ・プログラム
GB0213237D0 (en) * 2002-06-07 2002-07-17 Koninkl Philips Electronics Nv Input system
US20040228532A1 (en) * 2003-05-14 2004-11-18 Microsoft Corporation Instant messaging ink and formats
US7342586B2 (en) * 2004-09-13 2008-03-11 Nbor Corporation System and method for creating and playing a tweening animation using a graphic directional indicator
US8111243B2 (en) * 2006-03-30 2012-02-07 Cypress Semiconductor Corporation Apparatus and method for recognizing a tap gesture on a touch sensing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63106079A (ja) * 1986-10-23 1988-05-11 Fujitsu Ltd トラツピング処理方式
JPH02204791A (ja) * 1989-02-03 1990-08-14 Nippon Telegr & Teleph Corp <Ntt> 動画作成方法
JPH04304571A (ja) * 1991-04-01 1992-10-27 Canon Inc 画像処理装置
JPH10188014A (ja) * 1996-12-26 1998-07-21 Canon Inc 画像編集方法及び装置
JPH11149563A (ja) * 1997-11-19 1999-06-02 Sharp Corp 情報処理装置及び方法並びに情報処理プログラムを記録した記録媒体

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138035A (ja) * 2010-12-28 2012-07-19 Casio Comput Co Ltd 画像表示装置及びプログラム
US9354804B2 (en) 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device
JP2014505937A (ja) * 2010-12-29 2014-03-06 マイクロソフト コーポレーション コンピュータデバイスにおけるタッチイベント予測
JP2012160084A (ja) * 2011-02-01 2012-08-23 Dainippon Printing Co Ltd コンピュータ装置、入力システム、及びプログラム
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2013187595A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013186521A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014182481A (ja) * 2013-03-18 2014-09-29 Nk Works Co Ltd 画像処理プログラム及び画像処理装置
JP2015022695A (ja) * 2013-07-23 2015-02-02 三菱電機株式会社 ユーザインタフェース模擬装置
JP2015035663A (ja) * 2013-08-07 2015-02-19 辰巳電子工業株式会社 動画編集装置、動画編集方法およびプログラム
JP2018004795A (ja) * 2016-06-29 2018-01-11 株式会社Kansei Design 行動観察装置
JP2018067068A (ja) * 2016-10-17 2018-04-26 グリー株式会社 描画処理方法、描画処理プログラム及び描画処理装置
JP2019016354A (ja) * 2017-07-04 2019-01-31 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 表情アイコンを入力するための方法及び装置
JP2018092681A (ja) * 2018-03-19 2018-06-14 グリー株式会社 制御プログラム、制御方法及び情報処理装置
JP2020061193A (ja) * 2020-01-22 2020-04-16 グリー株式会社 制御プログラム、制御方法及び情報処理装置
KR20220013079A (ko) * 2020-07-24 2022-02-04 주식회사 한글과컴퓨터 프레젠테이션에서 개체의 회전을 통해 역동적인 애니메이션 효과의 재생을 가능하게 하는 전자 장치 및 그 동작 방법
KR102417766B1 (ko) * 2020-07-24 2022-07-06 주식회사 한글과컴퓨터 프레젠테이션에서 개체의 회전을 통해 역동적인 애니메이션 효과의 재생을 가능하게 하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
CN101833413A (zh) 2010-09-15
EP2214090A3 (en) 2013-06-05
EP2214090A2 (en) 2010-08-04
US20100188409A1 (en) 2010-07-29
JP4752921B2 (ja) 2011-08-17
US8860730B2 (en) 2014-10-14

Similar Documents

Publication Publication Date Title
JP4752921B2 (ja) 情報処理装置、アニメーション付加方法、及びプログラム
JP6823093B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP4666053B2 (ja) 情報処理装置、情報処理方法およびプログラム
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US8836649B2 (en) Information processing apparatus, information processing method, and program
JP2010086230A (ja) 情報処理装置、情報処理方法およびプログラム
JP6418157B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
KR102132390B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US11604580B2 (en) Configuration of application execution spaces and sub-spaces for sharing data on a mobile touch screen device
WO2015005148A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN105283830B (zh) 在便携设备上显示画面的方法和装置
JP2015007949A (ja) 表示装置、表示制御方法及びコンピュータプログラム
JP2014132427A (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
KR20140126327A (ko) 애플리케이션의 썸네일-이미지 선택 기법
CN104011629A (zh) 用于能够进行基于触摸的输入的用户界面的经增强的目标选择
KR20140133357A (ko) 디스플레이 장치 및 그 ui 화면 제공 방법
JP2012018600A (ja) 表示制御装置および表示制御方法、表示制御プログラム、記録媒体
JP2011123896A (ja) タッチセンシティブディスプレイを用いてオブジェクトを複写する方法およびシステム
KR20150134674A (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
JP2010102395A (ja) 画像処理装置、画像処理方法およびプログラム
KR20160033951A (ko) 디스플레이 장치 및 이의 제어 방법
WO2011140752A1 (zh) 电子装置及获取用户操作的方法
US20160132478A1 (en) Method of displaying memo and device therefor
JP2015141526A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6484859B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees