JP3671260B2 - Image creation apparatus and image creation control method - Google Patents

Image creation apparatus and image creation control method Download PDF

Info

Publication number
JP3671260B2
JP3671260B2 JP13606895A JP13606895A JP3671260B2 JP 3671260 B2 JP3671260 B2 JP 3671260B2 JP 13606895 A JP13606895 A JP 13606895A JP 13606895 A JP13606895 A JP 13606895A JP 3671260 B2 JP3671260 B2 JP 3671260B2
Authority
JP
Japan
Prior art keywords
key
editing
image
icon
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13606895A
Other languages
Japanese (ja)
Other versions
JPH08305880A (en
Inventor
林  哲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP13606895A priority Critical patent/JP3671260B2/en
Publication of JPH08305880A publication Critical patent/JPH08305880A/en
Application granted granted Critical
Publication of JP3671260B2 publication Critical patent/JP3671260B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、画像作成装置および画像作成制御方法に関する。
【0002】
【従来の技術】
近年、パーソナルコンピュータやコンピュータゲーム機器の普及に伴い、種々のアプリケーションソフトが開発され、広く利用されている。
【0003】
上記のアプリケーションソフトとしては、ワードプロセッサソフトや表計算ソフト以外に、いわゆる画像や音響データを自由に作成することのできるソフトがある。
【0004】
そして、最近では、画像作成ソフトの1つとして幼児用の例えば似顔絵作成ソフトを搭載した画像作成装置が開発されている。この画像作成装置では、人物の似顔絵をキャラクタとすると、キャラクタを構成する輪郭、目、鼻、口、頭髪、眉等の各構成要素に対して、異なるデータを有するパーツを複数用意し、この複数のパーツを設定するアイコン等を表示した編集モードに移行し指定するようになっており、幼児が各アイコンをカーソルキー等により選択し、輪郭、目、鼻、口、頭髪、眉の各パーツを設定することで、容易にキャラクタが作成できるようになっている。
【0005】
また、このように作成されたキャラクタに対して、その背景やキャラクタの台詞及びその台詞を表示する吹き出し等も予めパーツとして複数用意することで、アイコン等により簡単に設定することが可能となっており、さらには、自由曲線をカーソルキーにより入力することでいわゆる落書き等が容易に行えるようになっている。
【0006】
【発明が解決しようとする課題】
しかしながら、例えばキャラクタを構成する各構成要素を1つ1つパーツを指定することで、似顔絵を作成することになるが、キャラクタの作成あるいは編集の際にも1つ1つ指定しなけばならず、左右対称に構成される例えば両目、両眉においても各々の目、眉毎に指定しなければ編集できず、編集操作が特に幼児にとっては困難になるといった問題がある。つまり、編集単位が各パーツ単位であるので、各パーツをキャラクタの適正な位置に配置させる編集操作が幼児にとって難しいといった欠点がある。
【0007】
本発明は、上記事情に鑑みてなされたものであり、顔画像を構成する構成要素を最適な編集単位で編集することで、編集の操作性を向上させることのできる画像作成装置および画像作成制御方法を提供することを目的としている。
【0008】
【課題を解決するための手段】
本発明の画像作成装置は、複数のパーツ画像の組み合わせで顔画像を作成する画像作成装置において、前記画像の編集を指示する指示手段と、前記複数のパーツ画像のうち、左右対称な対称要素を有する複数のパーツ画像を群とし、前記指示手段の指示に対応して前記群を編集単位として編集する編集手段とを備え、前記編集手段は、前記群の左右対称軸に対して前記群のパーツ画像同士を相対的に移動させる移動制御手段を備えていることを特徴とする。
本発明の別な画像作成装置は、複数のパーツ画像の組み合わせで顔画像を作成する画像作成装置において、前記顔画像の編集を指示する指示手段と、前記複数のパーツ画像のうち、左右対称な対称要素を有する複数のパーツ画像を群とし、前記指示手段の指示に対応して、前記群を編集単位として編集する編集手段とを備え、前記編集手段は、前記群のパーツ画像同士を前記顔画像の外側方向または中心方向に移動させる移動制御手段を備えていることを特徴とする。
【0009】
【作 用】
本発明の画像作成装置では、前記指示手段の指示に基づき前記編集手段が前記群を編集単位として編集することで、画像を構成する構成要素を最適な編集単位で編集し、編集の操作性を向上させることを可能とする。
【0010】
【実施例】
以下、図面を参照しながら本発明の実施例について述べる。
【0011】
図1乃至図18は本発明の第1実施例に係わり、図1は画像作成装置としての似顔絵作成装置の構成を示すブロック図、図2は図1のコントローラの外観を示す外観図、図3は図1の似顔絵作成装置の流れを示すフローチャート、図4は図3の似顔絵作成装置の流れにおける表示装置の表示例を示す表示図、図5は図3の向き決定処理の流れにおける表示装置の表示例を示す表示図、図6は図3の向き決定処理の流れを示すフローチャート、図7は図3の似顔絵作成装置の流れにおける右向き指定での表示装置の表示例を示す表示図、図8は図3の顔作成処理の流れにおける口アイコン指定時の表示装置の表示例を示す表示図、図6は図3の顔作成処理の流れを示すフローチャート、図10は図3の顔作成処理の流れにおける口アイコン決定時の表示装置の第1の表示例を示す表示図、図11は図3の顔作成処理の流れにおける口アイコン決定時の表示装置の第2の表示例を示す表示図、図12は図3のパーツ移動処理の流れにおける口アイコン決定時の表示装置の表示例を示す表示図、図13は図3のパーツ移動処理の流れを示すフローチャート、図14は図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第1の表示例を示す表示図、図15は図3のパーツ移動処理の流れにおける鼻アイコン決定時の表示装置の表示例を示す表示図、図16は図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第2の表示例を示す表示図、図17は図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第3の表示例を示す表示図、図18は図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第3の表示例を示す表示図である。
【0012】
図1に示すように、本実施例の画像作成装置としての似顔絵作成装置1は、似顔絵の作成処理のプログラム及び似顔絵であるキャラクタを構成する輪郭、目、鼻、口、頭髪、眉等の各パーツのパーツデータが格納されているROM2と、ROM2に格納されているプログラムにより似顔絵画面データの生成及び各パーツまたは左右対称特性を有するパーツ群毎の編集処理を実行するCPU3(編集手段)と、CPU3が処理を実行する際に扱うデータを格納するRAM4と、CPU3に対して処理内容を指定するコントローラ5(指示手段)とから構成され、表示装置6にCPU3からの画像信号により似顔絵を表示するようになっている。目、眉は、キャラクタに対して左右対称なので、本実施例では、目、眉は、左右対称特性のパーツとして1つの編集単位であるパーツ群として扱っている。
【0013】
コントローラ5は、図2に示すように、似顔絵作成時の編集モード時に表示装置6に表示されるアイコン及びパーツを指定する上キー21、下キー22、右キー23、左キー24と、上キー21、下キー22、右キー23、左キー24により指定したアイコン及びパーツを確定する決定キー25と、指定したパーツに所定の動きを指示するアニメーションキー(以下、アニメキー)26と、編集処理の終了を指示する終了キー27とを備えて構成されている。
【0014】
次にこのように構成された本実施例の作用について説明する。
【0015】
図3に示すように、CPU3は、ステップS1で後述する各編集モード処理及びコントローラ5からの入力のためにRAM4及び表示装置6を初期化する。
【0016】
そして、ステップS2で各モードを判定しそのモード処理に移行することになるが、ステップS1の初期化の処理直後においては、CPU3は図4に示すような画像(初期設定のキャラクタ40、向き決定アイコン41、顔作成アイコン42、パーツ移動アイコン43)が表示装置6に表示しており、向き決定アイコン41が反転表示されていて、キャラクタの向き(顔の向き)を決定する処理である向き決定処理を初期指定している。そこで、決定キー25を押すことで、ステップS3の向き決定処理が行われ、処理が終了するとステップS2に戻り、図4に示す画像が再び表示される。
【0017】
そこで、左キー24や右キー23を用いて顔作成アイコン42やパーツ移動アイコン43を指定することになるが、例えば顔作成アイコン42が指定され(顔作成アイコン42が反転表示)、決定キー25が押されるとステップS4の顔作成処理が実行されステップS2に戻り、例えばパーツ移動アイコン42が指定され(パーツ移動アイコン43が反転表示)、決定キー25が押されるとステップS5のパーツ移動処理が実行されステップS2に戻る。このような処理が繰り返される。なお、パーツは輪郭、目、鼻、口、頭髪、眉に限らず、吹き出しや落書きもパーツデータとして処理するようにしてもよい。
【0018】
次に、上記の向き決定処理、顔作成処理及びパーツ移動処理の詳細について説明する。
【0019】
まず、向き決定処理について説明する。ステップS3の向き決定処理では、図5に示すように、キャラクタ40及びキャラクタ40の向きを指定するための右向きアイコン51と左向きアイコン52とが表示装置6に表示されている。そこで、図6に示すように、ステップS11で右キー23や左キー24を用いてアイコン51と左向きアイコン52を指定決定する。つまり、ステップS11で例えば、左キー24が押されると、ステップS12でキャラクタの輪郭を左向きに設定し、ステップS13でキャラクタの各パーツの位置の左寄りに設定し描画しステップS11に戻る。図5においては、キャラクタの向きが予め左向きなので、このステップS12,S13の処理では画像は変わらず、図5のままである。
【0020】
次に、ステップS11で右キー23が押されると、ステップS14でキャラクタの輪郭を右向きに設定し、ステップS15でキャラクタの各パーツの位置の右寄りに設定し描画しステップS11に戻る。この結果、図7に示すような右向きのキャラクタ40aが表示される。そして、ステップS11で終了キー27が押されると、向きが決定され、この向き決定処理が終了する。
【0021】
次に、顔作成処理について説明する。ステップS4の顔作成処理では、図8に示すように、キャラクタ40とキャラクタ40の構成要素である、耳、輪郭、口、目、鼻、眉、髭、頭髪の各パーツを指定するパーツアイコンである耳アイコン81、輪郭アイコン82、口アイコン83、目アイコン84、鼻アイコン85、眉アイコン86、髭アイコン87、頭髪アイコン88が表示装置6に表示される。
【0022】
そこで、顔作成処理では、図9に示すように、ステップS21で右キー23及び左キー24を用いて各パーツアイコンを指定し、決定キー25でパーツを決定しステップS22に進む。なお、右キー23及び左キー24による指定では指定されたパーツアイコンは反転表示される(図8の場合口アイコン83が指定された状態を示す)。また、ステップS21で終了キー27が押されると処理を終了する。
【0023】
そして、例えば上記ステップS21で口アイコン83が指定決定された場合には、図10に示すように、キャラクタ40と口パーツのパーツデータを指定する例えば8個のパーツデータアイコン101〜108とが表示装置6に表示される。そして、ステップS22では、まず、右キー23及び左キー24を用いて各パーツデータアイコン101〜108を指定し、決定キー25でパーツデータを決定しステップS23に進み、終了キー27が押されるとステップS21に戻る。図10の状態で決定キー25を押すと、ステップS23では前回指定されていた、パーツデータアイコンに対応する番号(以下、パーツ番号)をRAM4に記憶し(初期設定ではパーツアイコンデータ101が設定されているため、パーツ番号として1がRAM4内の前回パーツ番号格納領域に記憶される)、ステップS24に進む。
【0024】
なお、パーツ番号は、例えば耳アイコン81が1、輪郭アイコン82が2、口アイコン83が3、目アイコン84が4、鼻アイコン85が5、眉アイコン86が6、髭アイコン87が7、頭髪アイコン88が8となっているが、これに限ることはなく、識別可能に定義されていればよいことは言うまでもない。
【0025】
ステップS24では、ステップS22で決定されたパーツデータアイコン、例えば図11に示すように、パーツデータアイコン105が指定決定されると、口パーツ位置に新たなパーツデータアイコン105による口パーツを表示し、ステップS25で新たに指定されたパーツ番号である5をRAM4内の今回パーツ番号格納領域に記憶しステップS22に戻る。このステップS22〜ステップS25を繰り返すことで、ステップS22で指定決定されたパーツデータが各パーツ位置に表示されると共に(この場合図11の画像を表示される)、RAM4内の前回パーツ番号格納領域及び今回パーツ番号格納領域に一回前のパーツ番号と現在のパーツ番号が更新記憶されることになる。
【0026】
このようにして、RAM4に前回パーツ番号と今回パーツ番号を記憶している状態において、ステップS22でアニメキー26が押されると、ステップS26に処理が移行し、ステップS26では、アニメキー26の入力状態を判断する。すなわち、ステップS26で再度アニメキー26が押されると、ステップS27で前回パーツ番号のパーツをパーツ位置に表示し(この場合例えば図10の画像を表示)、ステップS28でCPU3内の時間管理カウンタのカウント値Timerに0をセットし、ステップS29でCPU3内の表示管理カウンタのカウント値dispに0をセットしてステップS22に戻る。
【0027】
ここで、アニメキー26が継続して押されている場合について説明する。この場合、ステップS22からステップS26に再び進み、この場合アニメキー26が継続して押されているので、ステップS26からステップS30に進み、ステップS30でTimerの値が所定値MAXに達したかどうか判断し達していない場合は、ステップS31でTimerをインクメントして再度ステップS22に戻る。アニメキー26は継続して押されているので、ステップS22,S26,S30,S31の処理を順次繰り返すことになり、ステップS30でTimerがMAXに達するまで、ステップS27で表示された前回パーツを表示し続ける(例えば図10の画像の表示)。
【0028】
そして、ステップS30でTimerがMAXに達すると、ステップS32に進み、dispの値を判定するが、この場合は0であるので(ステップS29で0にセット)、ステップS33に進み、ステップS33で今回指定決定された今回パーツを表示し(例えば図11の画像の表示)、ステップS34でdispに1をセットし、ステップS35でTimerに0をセットしてステップS22に戻る。
【0029】
この今回のパーツ表示も前述したように、ステップS30でTimerがMAXに達するまで、ステップS33で表示された今回のパーツを表示し続ける。そして、ステップS30でTimerがMAXに達すると、ステップS32に進み、dispの値を判定するが、この場合は1であるので、ステップS36に進み、ステップS36で前回指定決定されたパーツを表示し(図10の画像の表示)、ステップS37でdispに0をセットし、ステップS35でTimerに0をセットしてステップS22に戻る。
【0030】
この前回パーツ表示も前述したように、ステップS30でTimerがMAXに達するまで、ステップS36で表示された前回のパーツを表示し続ける。
【0031】
このようにして、アニメキー26が押され続けると、パーツが所定時間毎に入れ替わり、動画として認識されることになる。
【0032】
次に、アニメキー26が継続して押されない場合について説明する。ステップS26でアニメキー26が押されると、上述したように、ステップS27で前回のパーツ番号のパーツをパーツ位置に表示し(図10の画像を表示)、ステップS28で時間管理カウンタのカウント値Timerに0をセットし、ステップS29で表示管理カウンタのカウント値dispに0をセットしてステップS22に戻る。このステップS22に戻る前にアニメキー26がoff状態になるとステップS22では、決定キー25、アニメキー26、終了キー27の入力を待ち、入力に応じた上記の処理を実行する。また、ステップS26でアニメキー26がoff状態になると、ステップS38に進み、ステップS38で今回のパーツを表示し(図11の画像を表示)、ステップS22に戻り、決定キー25、アニメキー26、終了キー27の入力を待ち、入力に応じた上記の処理を実行する。
【0033】
このようにして、パーツの指定決定を行い、キャラクタの顔を作成すると共に、2つのパーツデータを記憶することで動画、すなわちアニメーション表示を可能とする。
【0034】
次に、パーツ移動処理について説明する。ステップS5のパーツ移動処理では、図12に示すように、キャラクタ40と移動対象である、口、目、鼻、眉、髭、の各パーツを指定する移動パーツアイコンである口アイコン121、目アイコン122、鼻アイコン123、眉アイコン124、髭アイコン125が表示装置6に表示される。
【0035】
そこで、パーツ移動処理では、図13に示すように、ステップS51で右キー23及び左キー24を用いて各移動パーツアイコンを指定し、決定キー25でパーツを決定しステップS52に進む。なお、右キー23及び左キー24による指定では指定された移動パーツアイコンは反転表示される(初期設定では図12のように口アイコン121が指定されている)。なお、ステップS51で終了キー27が押されると処理を終了する。
【0036】
そして、例えば上記ステップS51で目アイコン122が指定決定された場合には、ステップS52で上キー21、下キー22、右キー23、左キー24、決定キー25、アニメキー26の入力を待ち、入力に応じた処理を実行する。
【0037】
すなわち、例えば、ステップS52で上キー21または下キー22が押されると、ステップS53で指定決定されたパーツである目の移動前の位置情報をRAM4内の前回パーツ位置格納領域に記憶し、ステップS54で目を上キー21または下キー22に従って上下移動させ、ステップS55で移動の現在のパーツ位置をRAM4内の今回パーツ位置格納領域に記憶しステップS52に戻る。図14はステップ52で下キー22が押され、ステップS54で目を下方に移動させたときの画像を示している。
【0038】
次に、ステップS52で右キー23または左キー24が押されたときの処理について説明する。ステップS52で右キー23または左キー24が押されると、ステップS56において指定決定されたパーツの移動前の位置情報をRAM4内の前回パーツ位置格納領域に記憶し、ステップS57で指定決定されたパーツがキャラクタに対して左右対称のパーツ群(左右対称特性を有するパーツ群)である目または眉かを判定し、例えばステップS51で鼻アイコン123が指定されている場合には、ステップS58で右キー23または左キー24に従って鼻を左右に移動させ、ステップS55で移動の現在のパーツ位置をRAM4内の今回パーツ位置格納領域に記憶しステップS52に戻る。図15はステップ52で左キー24が押され、ステップS54で鼻を左方に移動させたときの画像を示している。
【0039】
次に、例えばステップS51で目アイコン123が指定された場合にステップS52で右キー23または左キー24が押されたときの処理について説明する。ステップS52で右キー23または左キー24が押されると、ステップS56において指定決定されたパーツの移動前の位置情報をRAM4内の前回パーツ位置格納領域に記憶し、ステップS57で指定決定されたパーツがキャラクタに対して左右対称のパーツである目または眉かを判定し、この場合は目であるので、ステップS60において左キー24の入力では、図16に示すように、左右対称のパーツのうち左目パーツ161を左方向に右目パーツ162を右方向に移動し、右キー23の入力では図17に示すように、左右対称のパーツのうち左目パーツ161を右方向に右目パーツ162を左方向に移動させる。
【0040】
つまり、ステップS60では右キー23または左キー24により左右対称のパーツ画像同士を群の左右対称軸に対して相対移動させ、ステップS55で移動後の現在のパーツ位置をRAM4内の今回パーツ位置格納領域に記憶しステップS52に戻る。なお、図18に示すように、右キー23の入力により左目パーツ161を右方向に右目パーツ162を左方向に移動させ、さらに左右の目を入れ替えて表示させることができる。
【0041】
このようにして、前回位置情報と今回位置情報を記憶している状態において、ステップS52でアニメキー26が押されると、ステップS62の処理に移行し、ステップS62では、アニメキー26の入力状態を判断する。すなわち、ステップS62で再度アニメキー26が押されると、ステップS63で前回位置情報の位置にパーツを表示し、ステップS64で時間管理カウンタのカウント値Timerに0をセットし、ステップS65で表示管理カウンタのカウント値dispに0をセットしてステップS52に戻る。
【0042】
ここで、アニメキー26が継続して押されている場合について説明する。この場合、ステップS52からステップS62に再び進み、この場合アニメキー26が継続して押されているので、ステップS62からステップS66に進み、ステップS66でTimerの値が所定値MAXに達したかどうか判断し達していない場合は、ステップS67でTimerをインクメントして再度ステップS52に戻る。アニメキー26は継続して押されているので、ステップS52,S62,S66,S67の処理を順次繰り返すことになり、ステップS66でTimerがMAXに達するまで、前回位置情報の位置にパーツを表示し続ける。
【0043】
そして、ステップS66でTimerがMAXに達すると、ステップS68に進み、dispの値を判定するが、この場合は0であるので、ステップS69に進み、ステップS69で今回位置情報の位置にパーツを表示し、ステップS70でdispに1をセットし、ステップS71でTimerに0をセットしてステップS52に戻る。
【0044】
この今回のパーツ表示も前述したように、ステップS66でTimerがMAXに達するまで今回位置情報の位置にパーツを表示し続ける。そして、ステップS66でTimerがMAXに達すると、ステップS68に進み、dispの値を判定するが、この場合は1であるので、ステップS72に進み、ステップS72で前回位置情報の位置にパーツを表示し、ステップS73でdispに0をセットし、ステップS71でTimerに0をセットしてステップS52に戻る。
【0045】
この前回位置情報の位置でのパーツ表示も前述したように、ステップS66でTimerがMAXに達するまで表示し続ける。
【0046】
このようにして、アニメキー26が押され続けると、パーツが所定時間毎に前回位置と今回位置とに入れ替わり表示され、動画として認識されることになる。
【0047】
次に、アニメキー26が継続して押されない場合について説明する。ステップS62でアニメキー26が押されると、上述したように、ステップS63で前回位置情報の位置にパーツを表示し、ステップS64で時間管理カウンタのカウント値Timerに0をセットし、ステップS65で表示管理カウンタのカウント値dispに0をセットしてステップS52に戻る。このステップS52に戻る前にアニメキー26がoff状態になるとステップS52では、上キー21、下キー22、右キー23、左キー24、決定キー25、アニメキー26の入力を待ち、入力に応じた上記の処理を実行する。また、ステップS62でアニメキー26がoff状態になると、ステップS74に進み、ステップS74で今回位置情報の位置にパーツを表示し、ステップS52に戻り、上キー21、下キー22、右キー23、左キー24、決定キー25、アニメキー26の入力を待ち、入力に応じた上記の処理を実行する。
【0048】
以上説明したように、本実施例では、CPU3がコントローラ5の操作に基づき、口、目、鼻、眉、髭、の各パーツの移動編集においては、各パーツ単位で移動編集すると共に、左右対称のパーツである目、眉においては、左右の目や眉を1つの編集単位として1回の操作で左右のパーツの移動処理を行うことができるので、簡単に操作でき、容易に似顔絵が作成できる。
【0049】
次に本発明の第2実施例について説明する。図19は本発明の第2実施例に係るパーツ移動処理の流れを示すフローチャートである。第2実施例は第1実施例とほとんど同じであるので、異なる点のみ説明する。
【0050】
第2実施例は、CPU3のパーツ移動処理の方法のみが異なる。すなわち、第2実施例のパーツ移動処理は、図19に示すように、ステップS91で右キー23及び左キー24を用いて各移動パーツアイコンを指定し、決定キー25でパーツを決定しステップS92に進む。なお、右キー23及び左キー24による指定では指定された移動パーツアイコンは反転表示される。また、ステップS91で終了キー27が押されると処理を終了する。
【0051】
そして、例えば上記ステップS91で移動パーツアイコンが指定決定された場合には、ステップS92で上キー21、下キー22、右キー23、左キー24の入力を待ち、入力に応じた処理を実行する。例えば、ステップS92で上キー21または下キー22が押されると、ステップS93でパーツを上キー21または下キー22に従って上下移動させ、ステップS92に戻る。
【0052】
次に、ステップS92で右キー23または左キー24が押されたときの処理について説明する。ステップS92で右キー23または左キー24が押されると、ステップS94で指定決定されたパーツがキャラクタに対して左右対称のパーツである目または眉かを判定し、例えばステップS91で鼻アイコンが指定されている場合には、ステップS95で右キー23または左キー24に従って鼻を左右に移動させ、ステップS92に戻る。
【0053】
次に、例えばステップS91で目アイコンが指定された場合には、ステップS92で右キー23または左キー24が押されると、ステップS94で指定決定されたパーツがキャラクタに対して左右対称のパーツである目または眉かを判定し、この場合は目であるので、ステップS96において左目パーツと右目パーツとを交換して表示する。なお、この交換は右キー23または左キー24のいづれの入力でも同様になされる。
【0054】
つまり、ステップS96では右キー23または左キー24により左右対称のパーツを交換しステップS92に戻る。その他の構成、作用は第1実施例と同じある。
【0055】
以上のように、本実施例では、左右対称パーツに対しては第1実施例よりもさらに簡単に移動編集処理ができる。
【0056】
次に本発明の第3実施例について説明する。図20及び図21は本発明の第3実施例に係わり、図20はパーツ移動処理の流れを示すフローチャート、図21は図20のパーツ移動処理の流れにおける表示装置の表示例を示す表示図である。第3実施例は第1実施例とほとんど同じであるので、異なる点のみ説明する。
【0057】
第2実施例は、CPU3のパーツ移動処理の方法のみが異なる。すなわち、第2実施例のパーツ移動処理は、図20に示すように、キャラクタのパーツに対して、ステップS111で右キー23、左キー24の入力を待ち、入力に応じた処理を実行する。なお、ステップS111で終了キー27が押されると処理を終了する。
【0058】
すなわち、ステップS111で左キー24が押されると、ステップS112で各パーツ画像同士をキャラクタである顔画像の中心から外側方向に移動し、ステップS111に戻り、次にステップS111で右キー23が押されると、ステップS113で各パーツ画像同士をキャラクタである顔画像外側から内側方向である中心方向に移動し、ステップS111に戻る。その結果、例えばステップS111で右キー23が押されると、図21に示すように、各パーツ画像の両目がキャラクタである顔画像の中心に集まった画像となる。その他の構成、作用は第1実施例と同じである。
【0059】
従って、本実施例では、第1実施例の効果に加え、パーツの移動処理をさらに簡略化したので、より編集操作が簡単になる。
【0060】
尚、本実施例は、本発明を似顔絵作成専用の装置に適用したものであるが、本発明は、電子手帳やページャ等その他の機器に適用されてもよい。
【0061】
【発明の効果】
以上説明したように本発明の画像作成装置によれば、指示手段の指示に基づき編集手段が群を編集単位として編集するので、画像を構成する構成要素を最適な編集単位で編集し、編集の操作性を向上させることができるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1実施例に係る画像作成装置としての似顔絵作成装置の構成を示すブロック図である。
【図2】図1のコントローラの外観を示す外観図である。
【図3】図1の似顔絵作成装置の流れを示すフローチャートである。
【図4】図3の似顔絵作成装置の流れにおける表示装置の表示例を示す表示図である。
【図5】図3の向き決定処理の流れにおける表示装置の表示例を示す表示図である。
【図6】図3の向き決定処理の流れを示すフローチャートである。
【図7】図3の似顔絵作成装置の流れにおける右向き指定での表示装置の表示例を示す表示図である。
【図8】図3の顔作成処理の流れにおける口アイコン指定時の表示装置の表示例を示す表示図である。
【図9】図3の顔作成処理の流れを示すフローチャートである。
【図10】図3の顔作成処理の流れにおける口アイコン決定時の表示装置の第1の表示例を示す表示図である。
【図11】図3の顔作成処理の流れにおける口アイコン決定時の表示装置の第2の表示例を示す表示図である。
【図12】図3のパーツ移動処理の流れにおける口アイコン決定時の表示装置の表示例を示す表示図である。
【図13】図3のパーツ移動処理の流れを示すフローチャートである。
【図14】図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第1の表示例を示す表示図である。
【図15】図3のパーツ移動処理の流れにおける鼻アイコン決定時の表示装置の表示例を示す表示図である。
【図16】図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第3の表示例を示す表示図である。
【図17】図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第2の表示例を示す表示図である。
【図18】図3のパーツ移動処理の流れにおける目アイコン決定時の表示装置の第3の表示例を示す表示図である。
【図19】本発明の第2実施例に係るパーツ移動処理の流れを示すフローチャートである。
【図20】本発明の第3実施例に係るパーツ移動処理の流れを示すフローチャートである。
【図21】図20のパーツ移動処理の流れにおける表示装置の表示例を示す表示図である。
【符号の説明】
1 似顔絵作成装置
2 ROM
3 CPU
4 RAM
5 コントローラ
6 表示装置
21 上キー
22 下キー
23 右キー
24 左キー
25 決定キー
26 アニメキー
27 終了キー
[0001]
[Industrial application fields]
  The present invention relates to an image creating apparatus.And image creation control methodAbout.
[0002]
[Prior art]
In recent years, with the spread of personal computers and computer game devices, various application software has been developed and widely used.
[0003]
As the above application software, there is software that can freely create so-called image and sound data in addition to word processor software and spreadsheet software.
[0004]
Recently, an image creation apparatus equipped with, for example, portrait creation software for infants has been developed as one of the image creation software. In this image creation device, if a portrait of a person is a character, a plurality of parts having different data are prepared for each component such as an outline, eyes, nose, mouth, hair, and eyebrows that constitute the character. Move to the edit mode that displays the icons to set the parts of the child and specify it, and the infant selects each icon with the cursor key etc., and the contour, eyes, nose, mouth, hair, eyebrows parts By setting, a character can be created easily.
[0005]
In addition, for a character created in this way, it is possible to easily set it with an icon or the like by preparing in advance a plurality of parts such as the background, the dialogue of the character, and a balloon for displaying the dialogue. Furthermore, so-called graffiti can be easily performed by inputting a free curve with a cursor key.
[0006]
[Problems to be solved by the invention]
  However, for example, each component constituting the character,By specifying parts one by one, you will create a portrait, but you must also specify them one by one when creating or editing a character.ThisLeft and rightSymmetryFor example, both eyes and both eyebrows are not editable unless specified for each eye and eyebrow, and the editing operation is particularly difficult for an infant. That is, since the editing unit is each part unit, there is a drawback that it is difficult for an infant to perform an editing operation for arranging each part at an appropriate position of the character.
[0007]
  The present invention has been made in view of the above circumstances, and an image creation apparatus capable of improving the operability of editing by editing the constituent elements constituting a face image in an optimum editing unit.And image creation control methodThe purpose is to provide.
[0008]
[Means for Solving the Problems]
  The image creating apparatus of the present invention has a plurality ofFace with a combination of part imagesIn an image creating apparatus for creating an image,faceInstruction means for instructing editing of the image; andpartsOf the images,SymmetricalA plurality of parts images having symmetrical elements are grouped, and in response to an instruction from the instruction means,Editing means for editing the group as an editing unitThe editing means includes movement control means for moving the group part images relative to each other with respect to the symmetry axis of the group.It is characterized by having.
  Another image creating apparatus according to the present invention is an image creating apparatus that creates a face image by combining a plurality of part images, and an instruction means for instructing editing of the face image; A plurality of part images having a symmetric element as a group, and an editing unit that edits the group as an editing unit in response to an instruction from the instruction unit, the editing unit including the part images of the group as the face It is characterized by comprising movement control means for moving in the outer direction or the center direction of the image.
[0009]
[Operation]
  In the image creating apparatus of the present invention, the editing unit edits the group as an editing unit based on an instruction from the instruction unit,faceIt is possible to improve the operability of editing by editing the components constituting the image in an optimum editing unit.
[0010]
【Example】
Embodiments of the present invention will be described below with reference to the drawings.
[0011]
1 to 18 relate to a first embodiment of the present invention. FIG. 1 is a block diagram showing the configuration of a portrait generating apparatus as an image generating apparatus. FIG. 2 is an external view showing the external appearance of the controller of FIG. Is a flowchart showing the flow of the caricature creation device of FIG. 1, FIG. 4 is a display diagram showing a display example of the display device in the flow of the caricature creation device of FIG. 3, and FIG. 5 is a diagram of the display device in the direction determination processing flow of FIG. FIG. 6 is a flowchart showing the flow of the orientation determination process in FIG. 3, FIG. 7 is a display diagram showing a display example of the display device in the right direction designation in the flow of the caricature creation apparatus in FIG. Is a display diagram showing a display example of the display device when a mouth icon is designated in the face creation process flow of FIG. 3, FIG. 6 is a flowchart showing the face creation process flow of FIG. 3, and FIG. 10 is a flowchart of the face creation process of FIG. Mouth icon determination in flow FIG. 11 is a display diagram showing a second display example of the display device when the mouth icon is determined in the face creation process flow of FIG. 3, and FIG. 12 is a display diagram of FIG. 13 is a display diagram showing a display example of the display device when the mouth icon is determined in the part movement process flow, FIG. 13 is a flowchart showing the part movement process flow in FIG. 3, and FIG. 14 is an eye icon in the part movement process flow in FIG. FIG. 15 is a display diagram showing a display example of the display device at the time of determining a nose icon in the part movement process flow of FIG. 3, and FIG. 16 is a part of FIG. FIG. 17 shows a third display example of the display device at the time of eye icon determination in the part movement processing flow of FIG. 3. Fig. 18 shows the display. Third display example of the flow of parts moving process eye icon determining when the display device is a display diagram showing a.
[0012]
As shown in FIG. 1, the portrait creation device 1 as the image creation device of the present embodiment includes a program for creating a portrait and contours, eyes, nose, mouth, hair, eyebrows, and the like that make up the character that is the portrait. ROM 2 in which part data of parts is stored, and CPU 3 (editing means) for executing generation processing of portrait screen data and editing processing for each part or part group having left-right symmetry characteristics by a program stored in ROM 2; The CPU 3 is composed of a RAM 4 for storing data to be handled when processing is executed, and a controller 5 (instruction means) for specifying processing contents for the CPU 3, and displays a portrait on the display device 6 by an image signal from the CPU 3. It is like that. Since the eyes and the eyebrows are symmetrical with respect to the character, in this embodiment, the eyes and the eyebrows are handled as a part group that is one editing unit as a part having a symmetrical characteristic.
[0013]
As shown in FIG. 2, the controller 5 includes an up key 21, a down key 22, a right key 23, a left key 24, and an up key for designating icons and parts displayed on the display device 6 in the editing mode for creating a portrait. 21, a down key 22, a right key 23, a decision key 25 for confirming an icon and a part designated by the left key 24, an animation key (hereinafter referred to as an animation key) 26 for instructing a designated part to perform a predetermined movement, and an editing process And an end key 27 for instructing the end of the operation.
[0014]
Next, the operation of this embodiment configured as described above will be described.
[0015]
As shown in FIG. 3, the CPU 3 initializes the RAM 4 and the display device 6 in step S <b> 1 for each edit mode process described later and for input from the controller 5.
[0016]
Then, each mode is determined in step S2 and the mode process is started. Immediately after the initialization process in step S1, the CPU 3 displays an image (initial character 40, orientation determination) as shown in FIG. The icon 41, the face creation icon 42, and the part movement icon 43) are displayed on the display device 6, the direction determination icon 41 is highlighted, and the direction determination is a process for determining the character direction (face direction). The process is initially specified. Therefore, by pressing the enter key 25, the orientation determination process in step S3 is performed. When the process is completed, the process returns to step S2, and the image shown in FIG. 4 is displayed again.
[0017]
Therefore, the face creation icon 42 and the part movement icon 43 are designated using the left key 24 and the right key 23. For example, the face creation icon 42 is designated (the face creation icon 42 is highlighted), and the decision key 25 is selected. When is pressed, the face creation process in step S4 is executed and the process returns to step S2. For example, the part movement icon 42 is designated (part movement icon 43 is highlighted), and when the enter key 25 is pressed, the part movement process in step S5 is performed. The process is executed and the process returns to step S2. Such a process is repeated. Note that the parts are not limited to contours, eyes, nose, mouth, hair, and eyebrows, and speech balloons and graffiti may be processed as part data.
[0018]
Next, details of the orientation determination process, the face creation process, and the part movement process will be described.
[0019]
First, the direction determination process will be described. In the orientation determination process of step S3, as shown in FIG. 5, the right icon 51 and the left icon 52 for specifying the orientation of the character 40 and the character 40 are displayed on the display device 6. Therefore, as shown in FIG. 6, the icon 51 and the left-facing icon 52 are designated and determined using the right key 23 and the left key 24 in step S11. That is, for example, when the left key 24 is pressed in step S11, the outline of the character is set to the left in step S12, and is drawn to the left of the position of each part of the character in step S13, and the process returns to step S11. In FIG. 5, since the character is directed leftward in advance, the image is not changed in the processing of steps S12 and S13, and remains as in FIG.
[0020]
Next, when the right key 23 is pressed in step S11, the outline of the character is set to the right in step S14, and is drawn to the right of the position of each part of the character in step S15, and the process returns to step S11. As a result, a right-facing character 40a as shown in FIG. 7 is displayed. When the end key 27 is pressed in step S11, the direction is determined, and the direction determination process ends.
[0021]
Next, the face creation process will be described. In the face creation process in step S4, as shown in FIG. 8, the parts 40, which are the constituent elements of the character 40 and the character 40, such as ears, contours, mouths, eyes, noses, eyebrows, eyelids, and hairs, are designated. A certain ear icon 81, contour icon 82, mouth icon 83, eye icon 84, nose icon 85, eyebrow icon 86, eyelid icon 87, and hair icon 88 are displayed on the display device 6.
[0022]
Therefore, in the face creation process, as shown in FIG. 9, each part icon is designated using the right key 23 and the left key 24 in step S21, the part is determined using the enter key 25, and the process proceeds to step S22. In addition, in the designation by the right key 23 and the left key 24, the designated part icon is highlighted (in the case of FIG. 8, the mouth icon 83 is designated). Further, when the end key 27 is pressed in step S21, the processing is ended.
[0023]
For example, when the mouth icon 83 is designated and determined in step S21, as shown in FIG. 10, for example, eight part data icons 101 to 108 for designating the part data of the character 40 and mouth parts are displayed. It is displayed on the device 6. In step S22, first, the part data icons 101 to 108 are designated by using the right key 23 and the left key 24, the part data is determined by the enter key 25, and the process proceeds to step S23, and the end key 27 is pressed. Return to step S21. When the enter key 25 is pressed in the state of FIG. 10, the number corresponding to the part data icon (hereinafter referred to as the part number) previously specified in step S23 is stored in the RAM 4 (part icon data 101 is set in the initial setting). Therefore, 1 is stored as the part number in the previous part number storage area in the RAM 4), and the process proceeds to step S24.
[0024]
The part numbers are, for example, 1 for the ear icon 81, 2 for the contour icon 82, 3 for the mouth icon 83, 4 for the eye icon 84, 5 for the nose icon 85, 6 for the eyebrow icon 86, 7 for the eyelid icon 87, and hair. Although the icon 88 is 8, it is needless to say that the icon 88 is not limited to this and may be defined to be identifiable.
[0025]
In step S24, when the part data icon determined in step S22, for example, as shown in FIG. 11, the part data icon 105 is designated and determined, the mouth part by the new part data icon 105 is displayed at the mouth part position. The part number 5 newly designated in step S25 is stored in the current part number storage area in the RAM 4, and the process returns to step S22. By repeating these steps S22 to S25, the part data designated and determined in step S22 is displayed at each part position (in this case, the image of FIG. 11 is displayed), and the previous part number storage area in the RAM 4 is displayed. In addition, the previous part number and the current part number are updated and stored in the current part number storage area.
[0026]
In this manner, when the animation key 26 is pressed in step S22 in the state where the previous part number and the current part number are stored in the RAM 4, the process proceeds to step S26. In step S26, the input of the animation key 26 is performed. Determine the state. That is, when the animation key 26 is pressed again at step S26, the part with the previous part number is displayed at the part position at step S27 (in this case, for example, the image of FIG. 10 is displayed), and the time management counter in the CPU 3 is displayed at step S28. The count value Timer is set to 0, the count value disp of the display management counter in the CPU 3 is set to 0 in step S29, and the process returns to step S22.
[0027]
Here, a case where the animation key 26 is continuously pressed will be described. In this case, the process proceeds from step S22 to step S26 again. In this case, since the animation key 26 is continuously pressed, the process proceeds from step S26 to step S30, and whether or not the value of Timer has reached the predetermined value MAX in step S30. If the determination is not reached, the timer is incremented in step S31, and the process returns to step S22 again. Since the animation key 26 is continuously pressed, the processes of steps S22, S26, S30, and S31 are sequentially repeated, and the previous part displayed in step S27 is displayed until Timer reaches MAX in step S30. (For example, display of the image in FIG. 10).
[0028]
When Timer reaches MAX in step S30, the process proceeds to step S32, and the value of disp is determined. In this case, since it is 0 (set to 0 in step S29), the process proceeds to step S33, and this time in step S33. The designated part is displayed (for example, the display of the image of FIG. 11), disp is set to 1 in step S34, timer is set to 0 in step S35, and the process returns to step S22.
[0029]
As described above, this part display continues to display the current part displayed in step S33 until Timer reaches MAX in step S30. When Timer reaches MAX in step S30, the process proceeds to step S32 and the value of disp is determined. In this case, since it is 1, the process proceeds to step S36, and the part designated and determined last time is displayed in step S36. (Display of the image in FIG. 10), disp is set to 0 in step S37, timer is set to 0 in step S35, and the process returns to step S22.
[0030]
As described above, the previous part display continues to display the previous part displayed in step S36 until Timer reaches MAX in step S30.
[0031]
In this way, if the animation key 26 is kept pressed, the parts are replaced every predetermined time and recognized as a moving image.
[0032]
Next, a case where the animation key 26 is not continuously pressed will be described. When the animation key 26 is pressed in step S26, as described above, the part with the previous part number is displayed in the part position in step S27 (the image in FIG. 10 is displayed), and the count value Timer of the time management counter is displayed in step S28. In step S29, the count value disp of the display management counter is set to 0, and the process returns to step S22. If the animation key 26 is turned off before returning to step S22, in step S22, the input of the enter key 25, the animation key 26, and the end key 27 is waited, and the above-described processing corresponding to the input is executed. If the animation key 26 is turned off in step S26, the process proceeds to step S38, the current part is displayed in step S38 (image of FIG. 11 is displayed), the process returns to step S22, and the enter key 25, animation key 26, Waiting for the input of the end key 27, the above-described processing is executed according to the input.
[0033]
In this way, the designation of parts is determined, the face of the character is created, and two parts data are stored, thereby enabling animation display, that is, animation display.
[0034]
Next, the parts movement process will be described. In the part moving process in step S5, as shown in FIG. 12, the mouth icon 121, which is a moving part icon for designating each part of the mouth 40, the eyes, the nose, the eyebrows, and the eyelids, which is the moving object, and the eye icon. 122, nose icon 123, eyebrow icon 124, and eyelid icon 125 are displayed on display device 6.
[0035]
Therefore, in the part movement process, as shown in FIG. 13, each moving part icon is designated by using the right key 23 and the left key 24 in step S51, the part is decided by the decision key 25, and the process proceeds to step S52. Note that the designated moving parts icon is highlighted in the designation by the right key 23 and the left key 24 (in the initial setting, the mouth icon 121 is designated as shown in FIG. 12). If the end key 27 is pressed in step S51, the process ends.
[0036]
For example, when the eye icon 122 is designated and determined in step S51, the input of the up key 21, down key 22, right key 23, left key 24, enter key 25, and animation key 26 is waited for in step S52. Perform processing according to the input.
[0037]
That is, for example, when the up key 21 or the down key 22 is pressed in step S52, the position information before moving the eye, which is the part specified and determined in step S53, is stored in the previous part position storage area in the RAM 4, and the step In S54, the eyes are moved up and down according to the up key 21 or the down key 22, and in step S55, the current part position of the movement is stored in the current part position storage area in the RAM 4, and the process returns to step S52. FIG. 14 shows an image when the lower key 22 is pressed in step 52 and the eyes are moved downward in step S54.
[0038]
Next, processing when the right key 23 or the left key 24 is pressed in step S52 will be described. When the right key 23 or the left key 24 is pressed in step S52, the position information before movement of the part specified and determined in step S56 is stored in the previous part position storage area in the RAM 4, and the part specified and determined in step S57. Is an eye or an eyebrow that is a group of parts symmetrical to the character (part group having left-right symmetry characteristics). For example, if the nose icon 123 is designated in step S51, the right key is selected in step S58. In step S55, the current part position of the movement is stored in the current part position storage area in the RAM 4 and the process returns to step S52. FIG. 15 shows an image when the left key 24 is pressed in step 52 and the nose is moved to the left in step S54.
[0039]
Next, for example, processing when the right key 23 or the left key 24 is pressed in step S52 when the eye icon 123 is designated in step S51 will be described. When the right key 23 or the left key 24 is pressed in step S52, the position information before movement of the part specified and determined in step S56 is stored in the previous part position storage area in the RAM 4, and the part specified and determined in step S57. Is an eye or an eyebrow that is a symmetric part with respect to the character. In this case, the eye is an eye, so in the input of the left key 24 in step S60, as shown in FIG. The left eye part 161 is moved to the left and the right eye part 162 is moved to the right. When the right key 23 is input, the left eye part 161 is moved to the right and the right eye part 162 is moved to the left as shown in FIG. Move.
[0040]
  That is, in step S60, the right / left key 23 or the left key 24 is used to symmetrical parts.ImagesThe symmetry of the groupAgainst axisIn step S55, the current part position after movement is stored in the current part position storage area in the RAM 4, and the process returns to step S52. As shown in FIG. 18, the left eye part 161 can be moved to the right and the right eye part 162 can be moved to the left by inputting the right key 23, and the left and right eyes can be switched and displayed.
[0041]
In this way, when the animation key 26 is pressed in step S52 while the previous position information and the current position information are stored, the process proceeds to step S62. In step S62, the input state of the animation key 26 is changed. to decide. That is, when the animation key 26 is pressed again in step S62, the part is displayed at the position of the previous position information in step S63, 0 is set in the count value Timer of the time management counter in step S64, and the display management counter is displayed in step S65. Is set to 0, and the process returns to step S52.
[0042]
Here, a case where the animation key 26 is continuously pressed will be described. In this case, the process proceeds again from step S52 to step S62. In this case, since the animation key 26 is continuously pressed, the process proceeds from step S62 to step S66, and whether or not the value of Timer has reached the predetermined value MAX in step S66. If the determination is not reached, the timer is incremented in step S67 and the process returns to step S52 again. Since the animation key 26 is continuously pressed, the processes in steps S52, S62, S66, and S67 are sequentially repeated, and the part is displayed at the position of the previous position information until Timer reaches MAX in step S66. to continue.
[0043]
When Timer reaches MAX in step S66, the process proceeds to step S68 to determine the value of disp. In this case, since it is 0, the process proceeds to step S69, and in step S69, the part is displayed at the position of the current position information. In step S70, disp is set to 1. In step S71, Timer is set to 0, and the process returns to step S52.
[0044]
As described above, this part display continues to display parts at the position of the current position information until the Timer reaches MAX in step S66. When Timer reaches MAX in step S66, the process proceeds to step S68, and the value of disp is determined. In this case, since it is 1, the process proceeds to step S72, and the part is displayed at the position of the previous position information in step S72. In step S73, disp is set to 0. In step S71, Timer is set to 0, and the process returns to step S52.
[0045]
As described above, the parts display at the position of the previous position information continues to be displayed until the Timer reaches MAX in step S66.
[0046]
In this way, if the animation key 26 continues to be pressed, the parts are displayed alternately at the previous position and the current position every predetermined time, and recognized as a moving image.
[0047]
Next, a case where the animation key 26 is not continuously pressed will be described. When the animation key 26 is pressed in step S62, as described above, the part is displayed at the position of the previous position information in step S63, 0 is set in the count value Timer of the time management counter in step S64, and displayed in step S65. The count value disp of the management counter is set to 0, and the process returns to step S52. If the animation key 26 is turned off before returning to the step S52, in the step S52, the input of the up key 21, the down key 22, the right key 23, the left key 24, the decision key 25, and the animation key 26 is waited, and according to the input. The above processing is executed. If the animation key 26 is turned off in step S62, the process proceeds to step S74. In step S74, the part is displayed at the position of the current position information, and the process returns to step S52, and the up key 21, down key 22, right key 23, Waiting for input of the left key 24, the enter key 25, and the animation key 26, the above-described processing is executed according to the input.
[0048]
As described above, in the present embodiment, the CPU 3 moves and edits each part of the mouth, eyes, nose, eyebrows, and eyelids based on the operation of the controller 5, and moves and edits in units of each part. For the eyes and eyebrows, the left and right eyes and eyebrows can be used as one editing unit, and the left and right parts can be moved in a single operation, allowing easy operation and easy creation of portraits. .
[0049]
Next, a second embodiment of the present invention will be described. FIG. 19 is a flowchart showing the flow of parts movement processing according to the second embodiment of the present invention. Since the second embodiment is almost the same as the first embodiment, only the differences will be described.
[0050]
The second embodiment is different only in the part movement processing method of the CPU 3. That is, in the part movement process of the second embodiment, as shown in FIG. 19, each moving part icon is designated by using the right key 23 and the left key 24 in step S91, and the part is decided by the decision key 25, step S92. Proceed to Note that the designated moving parts icon is highlighted in the designation by the right key 23 and the left key 24. If the end key 27 is pressed in step S91, the process ends.
[0051]
For example, when the moving part icon is specified and determined in step S91, input of the up key 21, down key 22, right key 23, and left key 24 is waited in step S92, and processing corresponding to the input is executed. . For example, when the up key 21 or the down key 22 is pressed in step S92, the part is moved up and down according to the up key 21 or the down key 22 in step S93, and the process returns to step S92.
[0052]
Next, processing when the right key 23 or the left key 24 is pressed in step S92 will be described. If the right key 23 or the left key 24 is pressed in step S92, it is determined whether the part specified and determined in step S94 is an eye or eyebrow that is symmetrical with respect to the character. For example, a nose icon is specified in step S91. If so, the nose is moved left and right in accordance with the right key 23 or the left key 24 in step S95, and the process returns to step S92.
[0053]
Next, for example, when the eye icon is specified in step S91, if the right key 23 or the left key 24 is pressed in step S92, the part specified and determined in step S94 is a part symmetrical with respect to the character. Whether it is a certain eye or eyebrow is determined. Since this is an eye, in this case, the left eye part and the right eye part are exchanged and displayed in step S96. This exchange is performed in the same manner when the right key 23 or the left key 24 is input.
[0054]
That is, in step S96, the left / right symmetrical parts are replaced by the right key 23 or the left key 24, and the process returns to step S92. Other configurations and operations are the same as those in the first embodiment.
[0055]
As described above, in this embodiment, the moving editing process can be performed more easily than the first embodiment with respect to the left and right symmetrical parts.
[0056]
Next, a third embodiment of the present invention will be described. 20 and 21 relate to the third embodiment of the present invention. FIG. 20 is a flowchart showing the flow of parts movement processing. FIG. 21 is a display diagram showing a display example of the display device in the flow of parts movement processing of FIG. is there. Since the third embodiment is almost the same as the first embodiment, only the differences will be described.
[0057]
The second embodiment is different only in the part movement processing method of the CPU 3. That is, in the part movement process of the second embodiment, as shown in FIG. 20, the input of the right key 23 and the left key 24 is waited for the character part in step S111, and the process corresponding to the input is executed. If the end key 27 is pressed in step S111, the process ends.
[0058]
  That is, when the left key 24 is pressed in step S111, each part is selected in step S112.ImagesThe characterFace imageWhen the right key 23 is pressed in step S111, each part is moved in step S113.ImagesThe characterFace imageofOutsideInward direction fromThe central direction isAnd return to step S111. As a result, for example, when the right key 23 is pressed in step S111, as shown in FIG.Both eyes of the imageIs a characterFace imageThe image gathered in the center of Other configurations and operations are the same as those of the first embodiment.
[0059]
Therefore, in this embodiment, in addition to the effects of the first embodiment, the part movement process is further simplified, so that the editing operation is further simplified.
[0060]
In this embodiment, the present invention is applied to an apparatus dedicated to creating a portrait, but the present invention may be applied to other devices such as an electronic notebook or pager.
[0061]
【The invention's effect】
  As described above, according to the image creating apparatus of the present invention, the editing unit edits a group as an editing unit based on an instruction from the instruction unit.faceThere is an effect that the constituent elements constituting the image can be edited in an optimum editing unit, and the editing operability can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a portrait creating apparatus as an image creating apparatus according to a first embodiment of the present invention.
FIG. 2 is an external view showing the external appearance of the controller of FIG.
FIG. 3 is a flowchart showing a flow of the caricature creation device of FIG. 1;
4 is a display diagram illustrating a display example of a display device in the flow of the portrait creation device of FIG. 3;
FIG. 5 is a display diagram showing a display example of the display device in the flow of the direction determination process of FIG. 3;
6 is a flowchart showing the flow of the orientation determination process in FIG. 3;
7 is a display diagram showing a display example of the display device with rightward designation in the flow of the portrait creation device of FIG. 3;
8 is a display diagram showing a display example of a display device when a mouth icon is designated in the face creation process flow of FIG. 3;
FIG. 9 is a flowchart showing a flow of the face creation process of FIG. 3;
10 is a display diagram illustrating a first display example of the display device when a mouth icon is determined in the face creation processing flow of FIG. 3;
11 is a display diagram illustrating a second display example of the display device when a mouth icon is determined in the face creation processing flow of FIG. 3;
12 is a display diagram showing a display example of the display device when a mouth icon is determined in the part movement process flow of FIG. 3; FIG.
13 is a flowchart showing the flow of part movement processing in FIG. 3;
14 is a display diagram illustrating a first display example of the display device when an eye icon is determined in the part movement process flow of FIG. 3;
15 is a display diagram illustrating a display example of the display device when determining a nose icon in the part movement process flow of FIG. 3;
16 is a display diagram illustrating a third display example of the display device when an eye icon is determined in the part movement process flow of FIG. 3;
17 is a display diagram illustrating a second display example of the display device when an eye icon is determined in the part movement process flow of FIG. 3;
18 is a display diagram illustrating a third display example of the display device when an eye icon is determined in the part movement process flow of FIG. 3;
FIG. 19 is a flowchart showing the flow of part movement processing according to the second embodiment of the present invention.
FIG. 20 is a flowchart showing the flow of part movement processing according to the third embodiment of the present invention.
FIG. 21 is a display diagram showing a display example of the display device in the part movement process flow of FIG. 20;
[Explanation of symbols]
1 Caricature making device
2 ROM
3 CPU
4 RAM
5 Controller
6 Display device
21 Up key
22 Down key
23 Right key
24 Left key
25 Enter key
26 Anime Key
27 End key

Claims (4)

複数のパーツ画像の組み合わせで顔画像を作成する画像作成装置において、
前記画像の編集を指示する指示手段と、
前記複数のパーツ画像のうち、左右対称な対称要素を有する複数のパーツ画像を群とし、前記指示手段の指示に対応して前記群を編集単位として編集する編集手段とを備え
前記編集手段は、前記群の左右対称軸に対して前記群のパーツ画像同士を相対的に移動させる移動制御手段を備えていることを特徴とする画像作成装置。
In an image creation device that creates a face image with a combination of multiple part images ,
Instruction means for instructing editing of the face image;
Among the plurality of part images, the plurality of part images having a symmetrical symmetry elements and the group, in response to an instruction of said instruction means, and a editing means for editing the group as editing unit,
The image creating apparatus according to claim 1, wherein the editing unit includes a movement control unit that moves the part images of the group relative to a symmetry axis of the group .
複数のパーツ画像の組み合わせで顔画像を作成する画像作成装置において、
前記顔画像の編集を指示する指示手段と
前記複数のパーツ画像のうち、左右対称な対称要素を有する複数のパーツ画像を群とし、前記指示手段の指示に対応して、前記群を編集単位として編集する編集手段とを備え、
前記編集手段は、前記群のパーツ画像同士を前記顔画像の外側方向または中心方向に移動させる移動制御手段を備えていることを特徴とする画像作成装置。
In an image creation device that creates a face image with a combination of multiple part images,
Instruction means for instructing editing of the face image ;
Among the plurality of part images, a plurality of parts images having symmetrical elements that are symmetrical to each other are provided as a group, and the editing unit edits the group as an editing unit in response to an instruction from the instruction unit,
The image creating apparatus according to claim 1, wherein the editing means includes movement control means for moving the part images of the group in an outer direction or a center direction of the face image .
複数のパーツ画像の組み合わせで顔画像を作成する画像作成装置に用いられる画像作成制御方法において、In an image creation control method used in an image creation device that creates a face image by combining a plurality of part images,
前記顔画像の編集を指示する指示ステップと、An instruction step for instructing editing of the face image;
前記複数のパーツ画像のうち、左右対称な対称要素を有する複数のパーツ画像を群とし、前記指示ステップの指示に対応して、前記群を編集単位として編集する編集ステップとを備え、Among the plurality of part images, a plurality of part images having symmetrical elements that are symmetrical, and an editing step that edits the group as an editing unit in response to an instruction of the instruction step,
前記編集ステップは、前記群の左右対称軸に対して前記群のパーツ画像同士を相対的に移動させる移動制御ステップを備えていることを特徴とする画像作成制御方法。The image editing control method, wherein the editing step includes a movement control step of moving the group part images relative to each other with respect to the symmetry axis of the group.
複数のパーツ画像の組み合わせで顔画像を作成する画像作成装置に用いられる画像作成制御方法において、In an image creation control method used in an image creation device that creates a face image by combining a plurality of part images,
前記顔画像の編集を指示する指示ステップと、An instruction step for instructing editing of the face image;
前記複数のパーツ画像のうち、左右対称な対称要素を有する複数のパーツ画像を群とし、前記指示ステップの指示に対応して、前記群を編集単位として編集する編集ステップとを備え、Among the plurality of part images, a plurality of part images having symmetrical elements that are symmetrical, and an editing step that edits the group as an editing unit in response to an instruction of the instruction step,
前記編集ステップは、前記群のパーツ画像同士を前記顔画像の外側方向または中心方向に移動させる移動制御ステップを備えていることを特徴とする画像作成制御方法。The image creation control method, wherein the editing step includes a movement control step of moving the part images of the group in an outer direction or a center direction of the face image.
JP13606895A 1995-05-10 1995-05-10 Image creation apparatus and image creation control method Expired - Fee Related JP3671260B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13606895A JP3671260B2 (en) 1995-05-10 1995-05-10 Image creation apparatus and image creation control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13606895A JP3671260B2 (en) 1995-05-10 1995-05-10 Image creation apparatus and image creation control method

Publications (2)

Publication Number Publication Date
JPH08305880A JPH08305880A (en) 1996-11-22
JP3671260B2 true JP3671260B2 (en) 2005-07-13

Family

ID=15166474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13606895A Expired - Fee Related JP3671260B2 (en) 1995-05-10 1995-05-10 Image creation apparatus and image creation control method

Country Status (1)

Country Link
JP (1) JP3671260B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528796B2 (en) * 2017-09-28 2020-01-07 Cal-Comp Big Data, Inc. Body information analysis apparatus with augmented reality and eyebrow shape preview method thereof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2273188A1 (en) 1999-05-28 2000-11-28 Interquest Inc. Method and apparatus for encoding/decoding image data
US6901172B1 (en) 2000-09-27 2005-05-31 Nec Corporation Method and apparatus for drawing likeness
JP4779318B2 (en) * 2004-07-09 2011-09-28 株式会社島津製作所 Analysis system
JP2006263122A (en) * 2005-03-24 2006-10-05 Sega Corp Game apparatus, game system, game data processing method, program for game data processing method and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528796B2 (en) * 2017-09-28 2020-01-07 Cal-Comp Big Data, Inc. Body information analysis apparatus with augmented reality and eyebrow shape preview method thereof

Also Published As

Publication number Publication date
JPH08305880A (en) 1996-11-22

Similar Documents

Publication Publication Date Title
JP7249392B2 (en) Avatar creation user interface
US6011562A (en) Method and system employing an NLE to create and modify 3D animations by mixing and compositing animation data
KR102169918B1 (en) A method and apparatus for generating facial expression animation of a human face model
US6466213B2 (en) Method and apparatus for creating personal autonomous avatars
KR20110028581A (en) Character display data generation device and method
JP7183450B2 (en) Avatar integration with multiple applications
JP2001344612A (en) Method and device for preparing animation, and computer-readable recording medium recorded with animation preparing program
JP3671260B2 (en) Image creation apparatus and image creation control method
CN111899319A (en) Expression generation method and device of animation object, storage medium and electronic equipment
KR101809601B1 (en) Apparatus and method for producing animation
JP5581002B2 (en) Game machine, game program
JP2998663B2 (en) Animation creation equipment
JP3871010B2 (en) Blusher makeup simulation system
JP7134558B2 (en) Information processing program, information processing device, information processing system, and information processing method
JPH08305881A (en) Image generating device
KR100372929B1 (en) Method for making user&#39;s own image in chatting site
CN113678099A (en) Software analysis assistance system and computer program therefor
JPH11312160A (en) Method and device for annotating document by autonomous personal avatar
KR100378142B1 (en) Method for Creating Character
JP3089698B2 (en) Caricature making device
JP3675514B2 (en) Face image creation device
JP6461412B1 (en) Image processing apparatus, image processing method, and image processing program
JP2008071360A (en) Display object generation method in information processor, program for executing the same, and recording medium for storing program
KR20020015229A (en) Retargetting method and apparatus for facial expression of caricature
JP3699569B2 (en) Image creating apparatus and method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050404

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120428

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees