JP2012014391A - 漫画作成支援装置、漫画作成支援方法およびプログラム - Google Patents

漫画作成支援装置、漫画作成支援方法およびプログラム Download PDF

Info

Publication number
JP2012014391A
JP2012014391A JP2010149846A JP2010149846A JP2012014391A JP 2012014391 A JP2012014391 A JP 2012014391A JP 2010149846 A JP2010149846 A JP 2010149846A JP 2010149846 A JP2010149846 A JP 2010149846A JP 2012014391 A JP2012014391 A JP 2012014391A
Authority
JP
Japan
Prior art keywords
effect line
movement
comic
determining
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010149846A
Other languages
English (en)
Inventor
Kazuyuki Sato
和之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010149846A priority Critical patent/JP2012014391A/ja
Publication of JP2012014391A publication Critical patent/JP2012014391A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】オブジェクトの動作に応じた適切な効果線を付与することができる漫画作成支援装置、漫画作成支援方法およびプログラムを提供する。
【解決手段】フィギュアAに両手を上げるポーズ(第1ポーズ)を行わせ、第1ポーズにおける個々の身体部位と、その直前の第2ポーズにおける個々の身体部位との部位移動距離および部位移動方向を取得する。部位移動距離の最も大きな手首N1のその部位移動距離M1の、仮想画面69の横幅Lに対する比率が所定値より大きい。また、手首N1の部位移動距離M1に対する、手首N1に隣接する手N2、ヒジN3の部位移動距離M2,M3の比率はそれぞれ所定値より大きく、手N2、ヒジN3が、手首N1に連動して動作している。よって、手首N1、手N2、ヒジN3を基準として効果線付与範囲K1を設定する。効果線は、効果線付与範囲K1と重なるフィギュアAの輪郭部を始点に描画される。
【選択図】図8

Description

本発明は、三次元仮想空間内の一場面を撮影した画像をコマに用いた漫画の作成を支援する漫画作成支援装置、漫画作成支援方法およびプログラムに関する。
従来、映画やアニメーション、ゲーム、漫画、写真集など様々なコンテンツの作成に、三次元コンピュータグラフィックス(CG)が用いられている。CGでは、例えば、三次元仮想空間内の様子が、同空間内に配置された仮想的なカメラであたかも撮影されたかのように、静止画(二次元画像)に変換される。CGアニメーションは、その静止画を時系列に沿って連続的に表示することで、動きのある映像(動画)として表現したものである。
一方、漫画においてオブジェクト(例えばキャラクタ等)の動きを表現する場合、一般には効果線の描画が行われる。効果線とは、画像内でオブジェクトが動く方向に延びる複数の線を描いたものである。効果線の線種、密度、太さ、効果線を付与する位置などを適宜選択することにより、オブジェクトの動きの早さや向きなどを表現することができる(例えば特許文献1参照。)。
特開2002−49925号公報
しかしながら、漫画においてオブジェクトに効果線を付与する場合、効果線の大きさや付与する位置の設定が適切でないと、漫画の作者が意図するオブジェクトの動きを、正確に、読者に伝えることが難しい。特許文献1のように、ユーザが任意の効果線を付与する場合、漫画製作の経験が少ないユーザが、オブジェクトの動作に応じた適切な効果線を付与することは難しかった。
本発明は、上記課題を解決するためになされたものであり、オブジェクトの動作に応じた適切な効果線を付与することができる漫画作成支援装置、漫画作成支援方法およびプログラムを提供することを目的とする。
本発明の第1態様によれば、少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置であって、三次元仮想空間内の所定の位置にオブジェクトを配置する第1配置手段と、前記オブジェクトを映し出す視点を三次元仮想空間内の所定の位置に配置する第2配置手段と、前記オブジェクトが三次元仮想空間内で移動する移動量を決定する第1決定手段と、前記第1決定手段によって決定された前記オブジェクトの移動量が、基準となる基準移動量より大きいかを判定する判定手段と、前記判定手段によって前記オブジェクトの移動量が前記基準移動量より大きいと判定された場合に、前記オブジェクトに、前記オブジェクトの移動を表現する効果線を付与する付与手段と、前記視点から取得した前記オブジェクトが映し出された画像を前記コマの画像として決定する第2決定手段と、を備える漫画作成支援装置が提供される。
第1態様によれば、オブジェクトの移動を表現する効果線が、オブジェクトの移動量に基づいて付与されたコマ画像を生成することができる。よって、ユーザは、効果線の付与に際し指示や調整を行わなくても、オブジェクトの移動量に基づく適切な効果線が付与されることによって、オブジェクトの移動が確実に表現されるので、漫画作成の手間を軽減することができる。
第1態様の前記オブジェクトは複数の身体部位を有してもよい。第1態様は、前記オブジェクトの前記身体部位の動作を示すモーション情報を選択する選択手段をさらに備えてもよい。第1態様において、前記第1決定手段は、前記選択手段によって選択された前記モーション情報に対応して前記オブジェクトの前記身体部位が動作する際の移動量を、複数の前記身体部位のそれぞれについて決定し、前記付与手段は、前記第1決定手段によって決定された複数の前記身体部位のそれぞれの移動量に基づいて、前記オブジェクトに前記効果線を付与してもよい。オブジェクトに様々なモーション情報を選択することができ、また、モーション情報に対応してオブジェクトの複数の身体部位について動作の移動量を決定することができるので、効果線の付与をオブジェクトの身体部位ごとに行うことができる。したがって、身体部位によって異なる効果線を必要とする場合にも対応でき、身体部位の動作に応じてより適切な効果線を付与することができる。
第1態様の前記付与手段は、前記第1決定手段によって決定された複数の前記身体部位のそれぞれの移動量に基づいて、前記複数の前記身体部位の中で、前記移動量が大きい身体部位から順に、上位の順位に位置する所定数の前記身体部位に前記効果線を付与してもよい。複数の身体部位の中で、移動量が大きい身体部位から順に、上位の順位に位置する所定数の身体部位に対して効果線を付与することができるので、移動量の小さな身体部位に効果線が付与されることがなく、より適切な部位に効果線を付与することができる。
第1態様は、前記第1決定手段によって決定された、複数の前記身体部位の移動量の平均移動量を決定する第3決定手段をさらに備えてもよい。第1態様において、前記判定手段は、前記第3決定手段によって決定された前記平均移動量が前記基準移動量より大きいかを判定し、前記付与手段は、前記判定手段によって前記基準移動量より前記平均移動量が大きいと判定された場合に、前記平均移動量に基づいて、前記オブジェクトの全身に前記効果線を付与してもよい。複数の身体部位の平均移動量に基づいて効果線を付与することができるので、オブジェクトの個々の身体部位の動作よりも全身の動作が大きい場合には、全身に効果線を付与することができる。したがって、オブジェクトの動作に応じてより適切な効果線を付与することができる。
第1態様において、前記判定手段は、前記第1決定手段によって決定された、複数の前記身体部位のそれぞれの移動量が前記基準移動量より大きいかを判定し、前記付与手段は、前記判定手段によって前記基準移動量より移動量が大きいと判定された前記身体部位に対し、前記移動量に基づいて前記効果線を付与してもよい。複数の身体部位の中で、個々の移動量が基準移動量より大きい身体部位に対し、効果線を付与することができるので、移動量の小さな身体部位に効果線が付与されることがなく、より適切な部位に効果線を付与することができる。
第1態様において、前記付与手段は、前記第2決定手段が決定した前記コマの画像内に映し出された前記オブジェクト前記身体部位に対し、前記効果線を付与してもよい。効果線の付与をオブジェクトに対して行うのでなく、コマの画像内に含まれる身体部位に対して行うのであれば、もともとコマの画像内に含まれない身体部位に対しては効果線を付与するための処理を行わなくとも済み、処理に対する手間を軽減することができる。
本発明の第2態様によれば、少なくとも一コマ以上のコマを含む漫画が作成されるコンピュータで実行され、前記漫画の作成を支援する漫画作成支援方法であって、三次元仮想空間内の所定の位置にオブジェクトを配置する第1配置ステップと、前記オブジェクトを映し出す視点を、三次元仮想空間内の所定の位置に配置する第2配置ステップと、前記オブジェクトが三次元仮想空間内で移動する移動量を決定する第1決定ステップと、前記第1決定ステップによって決定された前記オブジェクトの移動量が、基準となる基準移動量より大きいかを判定する判定ステップと、前記判定ステップによって前記オブジェクトの移動量が前記基準移動量より大きいと判定された場合に、前記オブジェクトに、前記オブジェクトの移動を表現する効果線を付与する付与ステップと、前記視点から取得した前記オブジェクトが映し出された画像を前記コマの画像として決定する第2決定ステップと、を含む漫画作成支援方法が提供される。
本発明の第3態様によれば、少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置として機能させるためのプログラムであって、コンピュータに、三次元仮想空間内の所定の位置にオブジェクトを配置する第1配置ステップと、前記オブジェクトを映し出す視点を、三次元仮想空間内の所定の位置に配置する第2配置ステップと、前記オブジェクトが三次元仮想空間内で移動する移動量を決定する第1決定ステップと、前記第1決定ステップによって決定された前記オブジェクトの移動量が、基準となる基準移動量より大きいかを判定する判定ステップと、前記判定ステップによって前記オブジェクトの移動量が前記基準移動量より大きいと判定された場合に、前記オブジェクトに、前記オブジェクトの移動を表現する効果線を付与する付与ステップと、前記視点から取得した前記オブジェクトが映し出された画像を前記コマの画像として決定する第2決定ステップと、を実行させるプログラムが提供される。
第2態様に係る漫画作成支援方法に従う処理をコンピュータで実行することによって、あるいは、第3態様に係るプログラムを実行してコンピュータを漫画作成支援装置として機能させることで、第1態様と同様の効果を得ることができる。
PC1の電気的な構成を示すブロック図である。 操作画面20を示す図である。 三次元仮想空間60を模式的に示す図である。 アフィン変換による座標変換について説明するための図である。 コマ画像生成処理のフローチャートである。 コマ画像生成処理のフローチャートである。 効果線付与処理のフローチャートである。 効果線付与範囲を設定する過程について説明するための図である。
以下、本発明を具体化した一実施の形態について、漫画作成支援プログラムがインストールされたパーソナルコンピュータ(PC)1を漫画作成支援装置の一例とし、図面を参照して説明する。なお、参照する図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、それのみに限定する趣旨ではなく、単なる説明例である。
まず、図1を参照し、PC1の電気的な構成について説明する。PC1は周知のパーソナルコンピュータであり、PC1の制御を司るCPU2を備えている。CPU2には、バス3を介して、ROM4、RAM5、入出力(I/O)インタフェイス6が接続されている。ROM4は、CPU2が実行するBIOS等のプログラムを記憶する読出し専用の記憶装置である。RAM5は、データを一時的に記憶する読み書き可能な記憶装置である。
入出力インタフェイス6には、ハードディスクドライブ(HDD)7、マルチディスクドライブ8、表示制御部9、キーボード10、マウス11が接続されている。マルチディスクドライブ8は、例えばCD−ROMやDVD−ROMなど、データが記憶された記憶媒体であるディスクROM12が挿入されると、ディスクROM12からデータやプログラム等の読み込みを行うものである。記憶装置であるHDD7には、ディスクROM12から読み出されたプログラムがインストールされ、また、データ等が記憶される。なお、本実施の形態では、後述する漫画作成支援プログラムがディスクROM12に記憶されて提供されるが、フラッシュROMなど、その他の記憶媒体に記憶されて提供されてもよい。あるいは、図示しないネットワークインタフェイスを介して接続されるネットワーク上のサーバから、ダウンロードにより、提供されてもよい。また、HDD7には、漫画作成支援プログラムで使用されるデータベース(後述)も記憶される。表示制御部9は、後述する漫画作成支援プログラムの実行に伴い、操作画面20(図2参照)をモニタ13に表示するための描画処理を行う。キーボード10、マウス11は、漫画作成支援プログラムにおいては、操作画面20上での各種操作や文字等の入力に用いられる。
次に、図2を参照して、モニタ13に表示される操作画面20について説明する。操作画面20は、漫画作成支援プログラムが起動され、後述するメイン処理が開始されるとモニタ13に表示される画面である。ユーザは、操作画面20を見ながらキーボード10やマウス11を用いて、編集や設定のためのデータや指示の入力を行うことができる。
図2に示すように、操作画面20は、コマ表示領域21とキャラクタ設定領域31との2つの表示領域に分かれている。操作画面20の左側のコマ表示領域21には、コマ画像表示領域22が設けられている。コマ表示領域21の下部には、新規コマ作成ボタン25が設けられている。また、コマ画像表示領域22の下部には、コマ番号26が表示される。操作画面20の右側のキャラクタ設定領域31には、ポーズ選択リスト32が設けられ、ポーズ選択リスト32の右側に、効果線選択リスト33が設けられている。キャラクタ設定領域31の下部には、新規キャラクタ作成ボタン35が設けられている。また、ポーズ選択リスト32および効果線選択リスト33の上部には、キャラクタ選択リスト36が設けられている。
コマ画像表示領域22には、後述する三次元仮想空間60(図3参照)内を、仮想カメラで映しだした画像が表示される。新規コマ作成ボタン25は、新たなコマが作成される場合に操作されるボタンである。新規コマ作成ボタン25が操作された場合には、コマ表示領域21に、新たなコマ画像表示領域22が、新たなコマ番号26とともに、既に表示されているコマ画像表示領域22等の下部に追加で表示される。なお、コマ数が増えた場合には、スクロールバー27でコマ表示領域21を上下にスクロールさせることができる。
キャラクタ設定領域31のキャラクタ選択リスト36は、三次元仮想空間60内に配置するキャラクタの容姿(CG)を選択するためのリストボックスである。あらかじめインストールされた複数のキャラクタから任意のキャラクタを、そのキャラクタに対応付けられた名称(例えば後述するフィギュアA)で、リストボックスにより指定することができる。キャラクタ選択リスト36には選択されたキャラクタの名称が表示される。ポーズ選択リスト32は、三次元仮想空間60(図3参照)内に配置されるキャラクタのポーズを選択するためのリストボックスである。「両手を上げる」ポーズ、「走る」ポーズなど、キャラクタが行うことのできる様々なポーズが複数種類用意されており、リストボックスにより選択することができる。効果線選択リスト33は、キャラクタの動きに応じて付与される効果線の種類や太さ、線種などを選択するためのリストボックスである。始点側が太く終点側細い効果線、始点から終点まで太く両端が丸められた効果線など、リストボックスをドロップダウンすると様々な線種の効果線が表示され、選択することができる。
新規キャラクタ作成ボタン35は三次元仮想空間60(図3参照)内に新たなキャラクタが配置される場合に操作されるボタンである。新規キャラクタ作成ボタン35が操作された場合には、キャラクタ設定領域31に、新たなキャラクタ用の項目が表示される。上記同様、キャラクタ数が増えた場合には、スクロールバー37でキャラクタ設定領域31を上下にスクロールさせることができる。また、上記のメニューの選択結果は、漫画作成支援プログラムの実行により指定されたRAM5の所定の記憶エリアに記憶される。
次に、図3を参照し、三次元仮想空間60について説明する。三次元仮想空間60は、漫画作成支援プログラムの実行に伴いCPU2がRAM5に確保した所定の記憶エリアに記憶される座標データ等によって構成されるものである。本実施の形態では、理解を容易にするため、座標データ等に基づき定義される仮想的な空間を、三次元仮想空間60として、例えば図3に示すように、模式的に図に表して説明する。この三次元仮想空間60内のあらゆるオブジェクトは、XYZ座標軸に基づく座標データとして定義される。
三次元仮想空間60内において、所定の座標に、オブジェクトとしてのフィギュアAと、背景の一例としての部屋63とが配置される。部屋63は、背景を構成するオブジェクトとして配置される6つの壁面からなる。さらに、フィギュアAの配置位置(座標)を取り巻く24カ所の定位置(ここでは部屋63の壁面の定位置)に、視点(図中黒角点「■」で示す。)が設けられるものとする。説明を容易にするため、各視点には、それぞれ、仮想カメラ61(図3ではそのうちの2つを示す。)が配置されたものとする。また、各仮想カメラ61は、それぞれ、あらかじめ撮影方向62(視線方向)、画角(垂直画角R1、水平画角R2(図4参照)(0°<R1<180°、0°<R2<180°))が設定されているものとする。
そして、仮想カメラ61で三次元仮想空間60内を撮影した画像が、後述するコマ画像として用いられることとする。なお、三次元仮想空間60内に配置されるキャラクタ数や視点数は一例であり、任意に増減可能である。また、キャラクタと視点の配置位置の関係についても任意に設定可能である。
ここで、仮想カメラ61で三次元仮想空間60内が撮影され、二次元の画像が生成される過程について、簡単に説明する。本実施の形態において、三次元仮想空間60内に配置されたオブジェクト(キャラクタのみならず背景等もオブジェクトの一つである。)を二次元の画像に変換する処理は、アフィン変換に基づく一連の座標変換処理によって行われる。アフィン変換とは、二次元の座標変換に使用され、拡大、縮小、反転などの線形変換と平行移動が結合された変換方法である。アフィン変換を用いることで、三次元仮想空間60内に配置した個々のオブジェクトごとに設定された座標(ローカル座標)を、ワールド座標、ビュー座標、スクリーン座標、デバイス座標に順に変換して二次元の座標とすることができる。これにより、視点からオブジェクトを見た画像が生成され、その画像が連続表示されることで、オブジェクトを映し出した映像として生成される。このアフィン変換による座標変換の具体的な処理については公知である。ゆえに、以下では、三次元仮想空間60内に配置したオブジェクトの一例としてのフィギュアAのローカル座標がデバイス座標に変換されるまでの一連の過程の概要を説明する。
図4に示すように、フィギュアAは、頭、胸、手、足など、要所となる身体部位(図中黒丸点「●」で示す。)が、それぞれ、XYZ座標軸に基づく座標データとして定義されている。これらの各身体部位の座標は、オブジェクトの基準とする座標(例えば頭の座標)を原点とする位置座標(ローカル座標系64の座標)で、それぞれ定義されている。なお、身体の細部については、さらにこれらの各身体部位を基準にした座標データで定義され、公知のテクスチャマッピング等によって表現されるが、ここでは簡略化のため、細部についての説明は省略する。
フィギュアAの各身体部位のローカル座標系84の座標が、三次元仮想空間60に設定された基準の位置を原点に、三次元仮想空間60の全体をXYZ座標軸に基づく座標データで定義されたワールド座標系65の座標に変換される。また、三次元仮想空間60内に、フィギュアAを見る視点(仮想カメラ61)が設置され、視点の位置がワールド座標系65の座標で定義される。
三次元仮想空間60を定義したワールド座標系65の座標が、視点の位置座標を原点とするビュー座標系66の座標に変換される。そして、ビュー座標系66の座標として定義された三次元仮想空間60内に、平面状の仮想スクリーン68が定義され、仮想カメラ61から仮想スクリーン68を透過させてフィギュアAを見た画像が、仮想スクリーン68上に形成される。具体的に、ビュー座標系66において、フィギュアAの各身体部位の座標が、仮想カメラ61(視点)とフィギュアAの各身体部位とを結ぶ仮想線(図中一点鎖線で示す。)が仮想スクリーン68と交わる点の座標(スクリーン座標)に変換される。
こうして仮想スクリーン68上の座標に変換されたフィギュアAの各身体部位の座標は、この時点ではまだビュー座標系66において三次元の座標として定義されているので、次に二次元平面の座標に変換される。すなわち、ビュー座標系66で示される仮想スクリーン68上の座標(スクリーン座標)が、操作画面20のコマ画像表示領域22(図2参照)に表示する大きさの、デバイス座標系67で示される二次元の仮想画面69上の座標(デバイス座標)に変換される。
以上のアフィン変換によるローカル座標からデバイス座標に変換する一連の座標変換によって、三次元仮想空間60内に配置された視点から見た、仮想スクリーン68上にフィギュアAが映しだされた画像を、仮想画面69として得ることができる。背景も含め、三次元仮想空間60内に配置されるすべてのオブジェクトについても同様である。アフィン変換による座標変換処理は、後述の漫画作成支援プログラムの実行に伴うCPU2による行列演算によって行われる。形成された仮想画面69は、RAM5の所定の記憶エリアに記憶される。
また、後述する漫画作成支援プログラムでは、キャラクタの様々なポーズを選択可能であるが、各ポーズは身体部位の配置位置の関係を示すデータとして設定され、データベース化されて、漫画作成支援プログラムとともにHDD7にインストールされている。各ポーズには、それぞれ、そのポーズを行う直前のタイミングにおけるポーズが対応付けられている。以下では便宜上、ユーザが選択するキャラクタのポーズを「第1ポーズ」とよび、第1ポーズの直前のタイミングにおけるキャラクタのポーズを「第2ポーズ」とよぶこととする。例えば、「両手を上げる」ポーズの場合、第1ポーズは、両手を上げた状態のポーズであり、第2ポーズは、両手を上げる前の状態のポーズである。漫画作成支援プログラムでは、キャラクタの各身体部位のローカル座標を、第1ポーズや第2ポーズのデータによって示される配置位置の関係に基づき計算して変更することで、キャラクタのポーズを第1ポーズや第2ポーズの状態にすることができる。
次に、図2の操作画面20を適宜参照しながら、図5〜図7を参照し、PC1にインストールされた漫画作成支援プログラムの動作について説明する。以下、フローチャートの各ステップを「S」と略記する。
本実施の形態のPC1は、漫画作成支援プログラムが実行されることにより、漫画作成支援装置として機能するものである。漫画作成支援装置は、三次元仮想空間内に配置したオブジェクトを、三次元仮想空間内の視点から映しだした画像をコマの画像とする漫画の作成を支援する装置である。モニタ13に上記した操作画面20が表示され、その操作画面20において各種設定が行われることで、コマ画像表示領域22に表示される画像が変化し、ユーザの求めるコマ画像が作成される。
図5〜図7に示すフローチャートは、操作画面20におけるユーザの操作に応じ、コマ画像表示領域22に表示するコマ画像の生成を行う、コマ画像生成処理のフローチャートである。コマ画像生成処理は、漫画作成支援プログラムのモジュールの一つとして組み込まれ、PC1にインストールされて、HDD7に記憶されている。ユーザが漫画作成支援プログラムの実行ファイルを起動させると、CPU2が、漫画作成支援プログラムのメインプログラム(図示外)に従い、コマ画像生成処理を含む各モジュールを呼び出して実行する。また、RAM5やHDD7には、漫画作成支援プログラムの各処理に応じた記憶エリアが確保される。なお、以下の処理はCPU2により実行される。
漫画作成支援プログラムのメインプログラムでは、初期設定において、プログラム内で使用される変数やフラグ、カウンタ等の初期化が行われる。また、三次元仮想空間60内にオブジェクトとして配置する背景やキャラクタ等に関する各設定や、オブジェクトを構成するポリゴン、テクスチャ等のグラフィックスデータ(以下、総称して「CGデータ」ともいう。)として、HDD7からデフォルトの設定が読み込まれ、RAM5に書き込まれる。
メインプログラムから、図5のコマ画像生成処理のモジュールが呼び出されると、まず、配置設定処理が行われ、三次元仮想空間60内のオブジェクトの一つとして設ける背景のデータが設定される(S1)。本実施の形態では、背景として部屋63の壁面(図3参照)が設定されるものとする。なお、背景として、屋外や、屋内であっても部屋63とは異なる様々な部屋など、任意の舞台を選択できるように、操作画面20にリストボックス等を設けてもよい。
また、配置設定処理では、ワールド座標系65において、背景やキャラクタなどのオブジェクトのローカル座標系64における基準(原点)を三次元仮想空間60内で配置する位置が設定される。また、視点、光源(図示外)等の配置位置の座標(ワールド座標データ)も設定される。各視点には、それぞれ仮想カメラ61(図3参照)が配置され、仮想カメラ61ごとに、視線方向(撮影方向62(図3参照))や画角(垂直画角R1、水平画角R2(図4参照))が設定される。なお、本実施の形態では、視点ごとの仮想カメラ61の視線方向および画角は、あらかじめ定められているものとする。メインプログラム(図示外)の初期設定において、HDD7にインストールされた視線方向や画角のデータが初期値として読み出され、RAM5に書き込まれる。上記同様、各視点の位置や各仮想カメラ61の視線方向、画角についても、操作画面20から、ユーザが任意に設定できるようにしてもよい。
さらに、配置設定処理では、三次元仮想空間60内にキャラクタを配置する処理が行われる。図3に示すように、本実施の形態では、三次元仮想空間60内にキャラクタ(フィギュアA)が配置されている。初期設定では、三次元仮想空間60内にキャラクタは配置されておらず、前述した新規キャラクタ作成ボタン35の操作によって、キャラクタ(フィギュアA)が配置される。さらに新規キャラクタ作成ボタン35が操作されることによって、他のキャラクタが追加される。もちろん、三次元仮想空間60内に任意の数のキャラクタを配置できるようにしてもよい。
なお、キャラクタの配置について、ここでは三次元仮想空間60内にキャラクタの身体部位が配置され、身体の細部やテクスチャについては後述するS34において設定される。キャラクタ選択リスト36で設定されたキャラクタ(ここではデフォルトのフィギュアA)の各身体部位のローカル座標データがHDD7から読み込まれ、RAM5に書き込まれる。次に、キャラクタの立ち位置、すなわち、三次元仮想空間60内においてキャラクタ(フィギュアA)を配置する位置が選択される。そして、キャラクタの基準の身体部位の座標(例えば頭の座標)が、三次元仮想空間60内におけるキャラクタの配置位置の座標(ワールド座標系65の座標)で設定される。さらに、基準の身体部位の座標を基準にローカル座標系64の座標で対応付けられた各身体部位の座標が、ワールド座標系65において設定される。これにより、図3に示すように、三次元仮想空間60内に、キャラクタ(フィギュアA)の身体部位(黒丸点「●」)が、仮想的に配置された状態となる。
次に、第1,第2ポーズ選択処理が行われる(S3)。操作画面20のポーズ選択リスト32において選択されたキャラクタの第1ポーズのデータ(身体部位の配置位置関係を示すデータ)と、その第1ポーズに対応する第2ポーズのデータとが、HDD7のデータベースよりRAM5に読み込まれる。
未選択の仮想カメラ61(視点)の1つが選択され(S4)、選択された仮想カメラ61の情報が取得される(S6)。仮想カメラ61の情報とは、すなわち、配置位置の座標(ワールド座標データ)、視線方向(撮影方向62)、画角(垂直画角R1、水平画角R2)の情報である。
そして、三次元仮想空間60内に配置されたキャラクタ(フィギュアA)のポーズが、第1ポーズに変更される(S7)。キャラクタの各身体部位のローカル座標が、第1ポーズのデータによって示される配置位置の関係となるように計算されて変更され、変更後の各身体部位がワールド座標に変換されて三次元仮想空間60内に再配置される。次にアフィン変換が行われる(S8)。第1ポーズに応じて変更されたキャラクタの各身体部位の座標に対し、アフィン変換によるワールド座標からデバイス座標への座標変換が行われる。デバイス座標に変換されたキャラクタの各身体部位の座標は、第1ポーズ座標として、RAM5に記憶される。さらに、アフィン変換によって撮影範囲内すなわち仮想スクリーン68内に含まれる身体部位が、撮影部位として設定される(S9)。換言すると、撮影範囲内に納まらなかった身体部位は、座標変換されず、撮影部位から除外される。
次に、三次元仮想空間60内に配置されたキャラクタ(フィギュアA)のポーズが、第2ポーズに変更される(S11)。上記同様、キャラクタの各身体部位のローカル座標が、第2ポーズのデータによって示される配置位置の関係となるように計算されて変更され、変更後の各身体部位がワールド座標に変換されて三次元仮想空間60内に再配置される。さらにアフィン変換が行われ(S12)、第2ポーズに応じて変更されたキャラクタの各身体部位のワールド座標がデバイス座標に変換される。デバイス座標に変換されたキャラクタの各身体部位の座標は、第2ポーズ座標として、RAM5に記憶される。
そして、キャラクタの第1ポーズにおいて撮影範囲内に含まれ、撮影部位として設定された身体部位のそれぞれについて、キャラクタの第2ポーズにおいても撮影範囲内に含まれているか否か、判定される(S13)。具体的には、第2ポーズ座標として座標が記憶された身体部位の中に、第1ポーズ座標として座標が記憶されて撮影部位に設定されたすべての身体部位が含まれるか否かについて、判定される。第1ポーズにおいて撮影範囲内に含まれるすべての撮影部位が、第2ポーズにおいても撮影範囲内に含まれていれば(S13:YES)、S26(図6参照)へ進む。
第1ポーズにおいて撮影範囲内に含まれる撮影部位で、第2ポーズにおいて撮影範囲内に含まれていない部位があれば(S13:NO)、S14に進む。S14では、仮想カメラ61の配置位置について再計算が行われ、撮影方向62に沿って撮影向きに対しマイナス方向(キャラクタから遠ざかる方向)に、所定距離(所定値)、仮想カメラ61の配置位置が移動される(S14)。仮想カメラ61の画角は変更されないので、移動後の仮想カメラ61による撮影画像はズームアウトした状態となる。もちろん、仮想カメラ61の配置位置を固定したまま画角を所定値分、大きくすることで、同様にズームアウトした状態の撮影画像を得てもよい。このとき、もとの撮影範囲に含まれる任意の2点間の距離を1として、ズームアウト後の上記2点間の距離を倍率としたズーム倍率(縮小倍率)が記憶される。
ズームアウトしたらアフィン変換が行われ(S16)、キャラクタの第2ポーズにおける各身体部位のワールド座標がデバイス座標に変換される。デバイス座標に変換されたキャラクタの各身体部位の座標は、第2ポーズ座標として、RAM5に上書き記憶される。そしてS13と同様に、第1ポーズの撮影部位が第2ポーズにおいても撮影範囲内に含まれるか否か、再度判定され(S17)、すべての撮影部位が撮影範囲に含まれないうちはS14に戻り(S17:NO)、再度ズームアウトが行われる。
第1ポーズの撮影部位のすべてが、第2ポーズにおいて撮影範囲内に含まれたら(S17:YES)、キャラクタ(フィギュアA)のポーズが、再度、第1ポーズに変更される(S18)。S14で記憶された仮想カメラ61のズーム倍率が維持されたまま、アフィン変換が行われ(S19)、第1ポーズに応じて変更されたキャラクタの各身体部位のワールド座標がデバイス座標に変換される。デバイス座標に変換されたキャラクタの各身体部位の座標は、第1ポーズ座標として、RAM5に上書き記憶される。なお、S19で上書き記憶される第1ポーズ座標としては、ズームアウトによって新たに撮影範囲内に含まれることとなった身体部位の座標は対象とせず、もとの撮影部位の座標が記憶されれば足りる。
図6に示すように、未選択の撮影部位の1つが選択される(S26)。選択された撮影部位の第1ポーズ座標と第2ポーズ座標とに基づき、部位移動方向と部位移動距離が算出され(S27)、算出結果が記憶される。具体的には、デバイス座標系67において、選択された撮影部位について、第1ポーズ座標を始点(原点)とした第2ポーズ座標の方向が、部位移動方向として求められ、第1ポーズ座標と第2ポーズ座標との間の距離が、部位移動距離として求められる。この処理は、すべての撮影部位に対して行われる。よって、未選択の撮影部位があれば、S26に戻る(S28:NO)。すべての撮影部位が選択され、それぞれについて、部位移動方向と部位移動距離とが求められると(S28:YES)、平均移動距離が算出される(S29)。すなわち、すべての撮影部位について求めた部位移動距離の平均値が算出され、記憶される。
ここで、選択中の仮想カメラ61のズーム倍率が1であれば(S31:NO)、そのままS34に進む。S14におけるズームアウトが実施されており、ズーム倍率が1でなければ(S31:YES)、部位移動距離と平均移動距離は本来の大きさよりも縮小されて求められたことになるので、縮小倍率に応じて補正が行われる(S32)。さらにズーム倍率を1に戻すため選択中の仮想カメラ61の配置位置および画角が初期値に設定され、S34に進む。
キャラクタ(フィギュアA)のポーズが、再度、第1ポーズに変更される(S34)。ここでは、身体部位だけでなく、身体の細部やテクスチャのCGデータについても設定される。より詳細には、キャラクタの各身体部位のローカル座標データ、各身体部位に対応した細部のローカル座標データ、細部に対応したテクスチャデータなどが読み込まれる。そして、上記したアフィン変換に基づき、第1ポーズのキャラクタの各身体部位の座標がワールド座標系65において設定される。また、各身体部位に応じた細部の座標と、テクスチャデータの大きさや貼り付ける座標がワールド座標系65において設定される。これにより、図3に示すように、三次元仮想空間60内に、キャラクタ(フィギュアA)が、仮想的に配置された状態となる。さらに、選択中の仮想カメラ61により、アフィン変換に基づく一連の座標変換処理によって、三次元仮想空間60内が撮影され、二次元の画像(コマ画像の候補)が生成される(S36)。このようにして、キャラクタが第1ポーズの状態で撮影された画像が生成される。
次に、撮影範囲の画像幅(図8に示す、デバイス座標系67の仮想画面69の横幅L)に対する平均移動距離(デバイス座標系67で求められた距離)の比率が求められる(S46)。求めた比率があらかじめ定められた値(所定値:ただし、0<所定値<1とする。)に満たない場合(S46:NO)、キャラクタ全体としての移動量は小さいと判断される。この場合S47へ進み、キャラクタ全体に対しての効果線の付与は行わず、撮影部位のうち動作の移動量が大きい部位に対して効果線を付与する処理が行われる。
まず、部位移動距離が最も大きい撮影部位が、最大移動部位に決定される(S47)。最大移動部位に決定された撮影部位の部位移動距離が読み出され、撮影範囲の画像幅(横幅L)に対する比率が求められる(S48)。求められた比率があらかじめ定められた値(所定値:ただし、0<所定値<1とする。)以上である場合(S48:YES)、最大移動部位は、移動量が大きいので、効果線を付与する対象となる部位(効果線付与部位)に相当すると判断される。よって最大移動部位が、効果線付与部位に設定される(S49)。そして、以下のS51〜S58の処理が実行され、最大移動部位を含む、効果線付与部位付近において、効果線を付与する際の効果線の始点(効果線始点)を配置可能とする領域(効果線付与範囲)を設定する処理が行われる。
S51では、最大移動部位に隣接する隣接部位が選択される(S51)。隣接部位とは、隣り合う位置に配置された身体部位同士を指し、例えば、手に対しては手首が相当し、ヒジに対しては手首および肩が相当する。なお、図8では隣接する身体部位(黒丸点)同士を実線で結び、両者が隣接部位同士の関係にあることを示している。選択中の隣接部位の部位移動距離が読み出され、最大移動部位の部位移動距離に対する比率が求められる(S52)。求められた比率があらかじめ定められた値(所定値:ただし、0<所定値<1とする。)以上である(すなわち比率が1に近い)場合(S52:YES)、選択中の隣接部位と最大移動部位との移動量の差が小さいので、動作が連動しているものとみなされる。よって、選択中の隣接部位についても最大移動部位とともに効果線を付与する対象となる部位に相当すると判断され、効果線付与部位に設定されて(S53)、S54に進む。一方、求められた比率があらかじめ定められた値(所定値)未満である(すなわち比率が0に近い)場合は(S52:NO)、隣接部位と最大移動部位とは移動量の差が大きく、動作は連動していないとみなされて、そのままS54に進む。
S52の判定が行われていない隣接部位があれば(S54:YES)、S51へ戻り、未選択の隣接部位が選択されて、上記同様の判定が行われる。すべての隣接部位に対するS52の判定が行われたら(S54:NO)、設定された効果線付与部位を基準とする効果線付与範囲の設定が行われる(S56)。なお、効果線付与範囲(効果線を付与する際の効果線の始点(効果線始点)を配置可能とする領域)は、基準となる身体部位に対応して、あらかじめ範囲が決められている。一例として、基準となる身体部位からその隣接部位との間の中間地点までの範囲で身体の細部のCGデータが形成される領域や、基準となる身体部位を中心に所定距離内の領域などが、効果線付与範囲として設定されている。効果線付与範囲は個々の身体部位に対応付けられてデータベース化され、漫画作成支援プログラムとともにHDD7にインストールされている。S56の処理ではデータベースが参照され、すべての効果線付与部位に対応する効果線付与範囲が読み出され、領域の座標が記憶される。さらに、最大移動部位に設定された撮影部位の部位移動方向が、効果線付与方向(効果線を付与する際に効果線の延びる方向)として設定される(S57)。
キャラクタのポーズによっては効果線付与範囲を複数箇所設定する場合もある。S47〜S57の処理で効果線付与部位として設定された撮影部位が、さらなる効果線付与部位を設定するための処理の対象から除外され(S58)、S47に戻る。すなわち2周目のS47では、初回のS47〜S57の処理で効果線付与部位として設定された部位を除く撮影部位の中から、部位移動距離が最も大きい撮影部位が、新たな最大移動部位として決定される。このように、S47〜S58の処理が繰り返されることによって、複数箇所の効果線付与範囲が設定される。そして、最大移動部位として設定された撮影部位の部位移動距離が小さく、撮影範囲の画像幅(横幅L)に対する比率が所定値未満となれば(S48:NO)、S59に進み、効果線付与範囲の設定が終了する。
ここで、図8に示す、フィギュアAが両手を上げるポーズを行う場合を例に、図6のS47〜58の処理で効果線付与範囲が設定される過程について説明する。図8では、フィギュアAが両手を上げるポーズを行った場合の第1ポーズを実線で示し、第2ポーズを点線で示す。また、第1ポーズにおけるフィギュアAの撮影部位(撮影範囲(仮想画面69)に含まれるフィギュアAの身体部位)を、黒丸点(第2ポーズは白抜きの丸点)で示す。フィギュアAの撮影部位のうち、動作のある部分(第1ポーズと第2ポーズとで撮影範囲内における位置座標が異なる部位)は、左右の手、手首、ヒジ、肩である。そのうち、最も部位移動距離が大きい撮影部位を右手首N1(画面内では左側の手首)とし、右手首の部位移動距離をM1とする。また、右手N2と右ヒジN3の部位移動距離を、それぞれM2、M3とする。
S47において、撮影部位(黒丸点)のうち最も部位移動距離が大きい右手首N1が、最大移動部位に設定される。S48では、右手首N1の部位移動距離M1が仮想画面69の横幅Lと比較される。ここでは横幅Lに対する部位移動距離M1が所定値以上であるとする。S49において、右手首N1が効果線を付与する対象となる部位に相当するものとして、効果線付与部位に設定される。S51では、右手首N1の隣接部位として、右手N2が選択される。右手首N1の部位移動距離M1に対する右手N2の部位移動距離M2の比率が所定値より大きいものとし、S53で、右手N2も効果線付与部位に設定される。右手首N1の隣接部位には右ヒジN3もあり、上記同様にS52で、右ヒジN3の部位移動距離M3の部位移動距離M1に対する比率が所定値より大きいものとすれば、S53で、右ヒジN3も効果線付与部位に設定される。そしてS54で、データベースより、効果線付与部位に設定された、右手首N1、右手N2、右ヒジN3のそれぞれに対応する効果線付与範囲が読み出される。なお、効果線付与範囲に重なりがあれば、図8において二点鎖線K1に示すように、合成される。また、効果線付与方向として、最大移動部位の右手首N1の部位移動方向が、S57で設定される。
S58では、右手首N1、右手N2、右ヒジN3が、効果線付与部位の対象から除外されるため、2周目のS47では、残る撮影部位の中から、最も部位移動距離の大きい、例えばフィギュアAの左手首N4(画面内では右側の手首)が、最大移動部位に設定される。以下同様に、左手N5、左ヒジN6が隣接部位として設定され、これらの部位を効果線付与部位とする効果線付与範囲K2が設定される。3周目のS47では、左右の手、手首、ヒジが除外され、残る撮影部位の中から、例えば右肩N7が最大移動部位に設定される。しかし、右肩N7の部位移動距離は小さいため、S48で、横幅Lに対する右肩N7の部位移動距離の比率が所定値未満と判断されれば、効果線付与範囲の設定を終了してS59に進む。
次に、図6のS59では、効果線付与範囲が設定されているか、確認される(S59)。ここで、キャラクタのいずれの撮影部位についても、第1ポーズと第2ポーズとの間での部位移動距離が十分な大きさを有さない場合、上記の1周目のS48の処理において、横幅Lに対する最大移動部位の部位移動距離の比率が所定値未満となる(S48:NO)。すると、S49〜S58の処理が行われないから、効果線付与範囲は設定されていない(S59:NO)。この場合、S36で生成された、キャラクタが第1ポーズの状態の画像に対し、効果線は付与されず、S63に進む。
一方、上記のように、効果線付与範囲が設定された場合には、S59においてS62に進み(S59:YES)、効果線付与処理のサブルーチンがコールされる(S62)。図7に示す、効果線付与処理では、輪郭判定処理が行われる(S71)。輪郭判定処理は、以下のようにして、二次元の画像(コマ画像の候補)におけるキャラクタ(フィギュアA)の輪郭部の座標が取得される。まず、三次元仮想空間60内のキャラクタを除くその他のオブジェクト(部屋63等)が、非表示あるいは非配置の状態とされる。キャラクタが第1ポーズに設定され、身体の細部やテクスチャなどのCGデータも設定されてから、アフィン変換により、三次元仮想空間60内を撮影した二次元の画像(第1の輪郭判定用画像)が生成される。さらに、仮想カメラ61がわずかにズームアウトした状態で、アフィン変換により、三次元仮想空間60内を撮影した二次元の画像(第2の輪郭判定用画像)が生成される。第1と第2の輪郭判定用画像の差分が求められ、得られた座標が、キャラクタの輪郭部として設定される。
キャラクタの輪郭部が取得されたら、効果線付与範囲が設定されているか確認される(S81)。後述するが、キャラクタの全身に対して効果線を付与する処理が行われる場合には、効果線付与範囲が設定されない(S81:NO)。効果線付与範囲が設定されていない場合、効果線を付与する際の始点(効果線始点)を配置可能な領域としての効果線始点範囲に、輪郭部(すなわち撮影範囲内におけるキャラクタの全身の輪郭部)が設定され(S83)、S84に進む。ここでは、上記したS49〜S58の処理が行われたことによって効果線付与範囲が設定されている(S81:YES)。効果線付与範囲が設定されている場合には、輪郭部に効果線付与範囲が重ねられ、効果線付与範囲と重なる輪郭部が、効果線始点を配置可能な効果線始点範囲に設定される(S82)。そして、効果線始点範囲内の任意の位置に、効果線始点が設定される(S84)。さらに効果線始点範囲のうち、効果線始点に設定された位置から所定の範囲が、効果線始点範囲から除外される(S86)。効果線始点範囲がまだ残されていれば(S87:YES)、S84に戻り、新たな効果線始点が設定される。S84〜S87の処理は、すべての効果線始点範囲が除外とされるまで繰り返される。これにより、もとの効果線始点範囲に、複数の効果線始点が密集することなく配置される。
すべての効果線始点範囲が除外となれば(S87:NO)、S88〜S92の処理で、効果線始点から延びる効果線を付与する処理が行われる。まず、未選択の効果線始点の1つが選択され(S88)、選択中の効果線始点に対応した効果線付与方向(ここではS57で、複数の効果線付与範囲に対しそれぞれに、効果線付与方向として最大移動部位の部位移動方向が設定されている。)が読み出される(S89)。S36で生成された、キャラクタが第1ポーズの状態の画像において対応する位置に、選択された効果線始点が配置され、効果線始点から、効果線付与方向に沿って延びる効果線が描画(付与)される(S91)。効果線の延びる長さは、効果線始点の対応する効果線始点範囲における最大移動部位の部位移動距離に応じて設定される。なお、付与した効果線が、効果線始点の配置された身体部位のCGデータと重なる場合、その効果線は削除される。S88〜S92の処理は、すべての効果線始点に効果線が付与されるまで繰り返される。よって、未選択の効果線始点があれば(S92:YES)、S88に戻る。すべての効果線始点が選択され、それぞれに効果線が付与されると(S92:NO)、キャラクタが第1ポーズの状態で効果線の付与された画像が完成し、図6のコマ画像生成処理に戻り、S63に進む。
図6に示すように、S4(図5参照)〜S62の処理は、すべての仮想カメラ61に対して行われる。よって、未選択の仮想カメラ61があれば、S4(図5参照)に戻る(S63:NO)。
ところで、S46において、撮影範囲の画像幅(横幅L)に対する、S29で算出された平均移動距離の比率が、あらかじめ定められた所定値以上である場合(S46:YES)、キャラクタ全体としての移動量が大きいと判断される。この場合には、キャラクタに対して部位単位での効果線の付与は行わず、キャラクタ全体に対して効果線を付与するために、各撮影部位の部位移動方向および部位移動距離に基づき、平均移動方向が求められる(S60)。例えば、個々の撮影部位について部位移動方向を向き部位移動距離の大きさを持つベクトルを求め、ベクトルの和を求めて、始点から終点を向く方向を平均移動方向とすればよい。平均移動方向は、通常、第1ポーズのキャラクタ側から第2ポーズのキャラクタ側へ向かう方向となる。求められた平均移動方向が、効果線付与方向として設定される(S61)。そしてS62において、効果線付与処理のサブルーチンがコールされ、上記したように、効果線始点範囲にキャラクタの全身の輪郭部が設定され(S83)、キャラクタが第1ポーズの状態で、キャラクタの全身の輪郭部から平均移動方向に延びる効果線が付与された画像が完成する。
すべての仮想カメラ61が選択され、それぞれに対しS4〜S62の処理が行われると(S63:YES)、S64に進む。生成されたすべての画像が、コマ画像の候補として、図示しない提示画面に並べて表示される(S64)。提示画面に表示された複数の画像から1つの画像がユーザによって選択されるのを待つ(S66:NO)。1つの画像が選択されたら(S66:YES)、選択された画像がコマ画像として決定される。例えば図2に示すように、キャラクタが「両手を上げる」ポーズ(第1ポーズ)の状態で、動作のある身体部位(手、手首、ヒジ)の付近に、2種類の異なる効果線J1、J2が付与されたコマ画像が、コマ画像表示領域22に表示される(S67)。このように、コマ画像の候補として複数の画像が提示画面で提示され、ユーザにより選択された1つの画像が、コマ画像として用いられることとなる。コマ画像表示領域22へのコマ画像の表示が完了すると、コマ画像生成処理は終了され、図示外のメインプログラムに戻る。
以上のように、漫画作成支援装置として機能する本実施の形態のPC1では、キャラクタの移動を表現する効果線が、キャラクタの身体部位の部位移動距離に基づいて自動的に付与されたコマ画像を生成することができる。よってユーザは、操作画面20で効果線を付与する位置や方向など手間の掛かる指示や調整を行わなくても、キャラクタの移動量に基づく適切な効果線が付与されることによって、キャラクタの移動が確実に表現されるので、漫画作成の手間を軽減することができる。また、データベースでキャラクタの様々なポーズを有することで、キャラクタに様々なポーズをとらせることができ、また、ポーズに対応してキャラクタの複数の身体部位についての部位移動距離を容易に得ることができる。よって、効果線の付与をキャラクタの個々の身体部位ごとに行うことができる。したがって、身体部位によって適切な効果線の方向や大きさが異なる場合においても対応することができ、身体部位の動作に応じてより適切な効果線を付与することができる。また、複数の身体部位の平均移動距離に基づいて効果線を付与することができるので、キャラクタの個々の身体部位の動作よりも全身の動作が大きい場合には、全身に効果線を付与することができる。したがって、キャラクタの動作に応じてより適切な効果線を、身体部位に付与したり全身に付与したりすることができる。また、複数の身体部位に対し、個々の部位移動距離に基づいて効果線を付与することができるので、部位移動距離の小さな身体部位に対して効果線が付与されることがなく、より適切な部位に効果線を付与することができる。また、効果線の付与を撮影範囲に含まれる身体部位に対して行うので、撮影範囲外の身体部位に対しては効果線を付与するための処理を行わなくとも済み、処理に対する手間を軽減することができる。
なお、上記の実施形態に示される漫画作成支援装置の構成は例示であり、本発明は各種の変形が可能なことはいうまでもない。例えば、本実施の形態では、仮想カメラ61の配置位置あるいは画角はあらかじめ定められた値に設定されるが、任意に変更できるようにしてもよい。また、候補カメラによる撮影画像は、図示しない提示画面に並べて表示され、ユーザによるコマ画像の選択が行われたが、候補カメラが1つの場合は、提示画面への表示が行われず、直接、コマ画像表示領域22に表示されるようにしてもよい。
また、S52では、隣接部位と最大移動部位とが連動して動作しているかについて、部位移動距離の大きさの比率を所定値と比較することによって判断が行われた。例えば、最大移動部位の部位移動方向に向かって部位移動距離の大きさを持つ第1のベクトルと、隣接部位の部位移動方向に向かって部位移動距離の大きさを持つ第2のベクトルとの和によって得られる第3のベクトルの大きさを求め、最大移動部位の部位移動距離の2倍の大きさに対する第3のベクトルの大きさの比率を、所定値と比較してもよい。
また、効果線を付与する際に、効果線の、効果線始点から所定長さ分を削除してもよい。効果線の延びる長さは、本実施の形態では部位移動距離に応じて設定されることとしたが、あらかじめ決められた長さとしてもよいし、任意の長さを設定できるようにしてもよい。また、同一の効果線始点範囲において付与された効果線の長さは、本実施の形態では部位移動距離に応じて設定されるため同一となるが、それぞれ任意に異ならせてもよい。あるいは、同一の効果線始点範囲において、効果線の長さを所定のパターンに従って設定してもよい。例えば、効果線始点範囲の端部に近い側ほど付与される効果線を短くし、中央部に近い側ほど付与される効果線を長く設定してもよい。
また、効果線の密度、換言すると、個々の効果線同士の離間距離は、部位移動距離に応じて変更してもよい。例えば、部位移動距離が長いほど、効果線同士の離間距離を短くして密度を高めればよい。具体的に、効果線始点に設定された位置から所定の範囲が効果線始点範囲から除外されて次の効果線始点が配置されるが、上記の場合、所定の範囲を小さくすればよい。
また、輪郭部を設定する際に、本実施の形態では第1の輪郭判定用画像を生成してからズームアウトして、キャラクタの全身のCGデータに対する第2の輪郭判定用画像を生成したが、個々の身体部位のCGデータごとに、ズームアウトして、第2の輪郭判定用画像を生成してもよい。さらに第2の輪郭判定用画像を生成する際に、各身体部位のCGデータをそれぞれの部位移動方向とは反対側へオフセットした状態で生成し、第1と第2の輪郭判定用画像の差分を求めてもよい。このようにすれば、身体部位ごとに、部位移動方向下流側の輪郭線だけが残る輪郭部を得ることができる。
また、本実施の形態では、仮想画面69の横幅Lに対する部位移動距離や平均移動距離の比率が所定値以上の場合に、効果線が付与された。すなわち、本発明における基準移動量は、横幅Lに所定値を掛けたものである。これに限らず、基準移動量として任意の大きさを設定してもよいし、例えばキャラクタの大きさ(身長など)に対する比率を基準とするなど、横幅Lを基準に設定しなくともよい。また、部位移動距離については、平均移動距離を基準にしてもよい。すなわち、部位移動距離が平均移動距離よりも大きな(あるいは平均移動距離以上の)身体部位に対し、効果線を付与してもよい。
また、効果線を付与する対象の身体部位を決定する際に、基準移動量との比較を行わず、移動量の大きい身体部位から順に、上位の順位に位置する所定数の身体部位を対象として決定してもよい。具体的には、S47で最大移動部位を決定したら、S48を飛ばしてS49に進み、最大移動部位を効果線付与部位に設定する。次に、S56に進み、効果線付与部位を効果線付与範囲に設定し、S57で効果線付与方向を決定したら、S58で、果線付与部位に設定した撮影部位を、対象から除外する。このS47、S49、S56、S57、S58の処理を、所定数に相当する回数分(例えば上位5位までであれば、5回)繰返し行う。例えばS58の後に繰返し回数をカウントする処理と所定の回数に達したか否かの判定を行う処理を設ければよい。その後、S62に進み、効果線付与処理を行えばよい。
なお、効果線の付与対象となる身体部位は、移動量の大きいものから順に上位の順位に位置すればよく、必ずしも上位から順に所定数を対象としなくともよい。例えば所定数が3であった場合、上記の変形例のように処理を行えば、移動量の大きいものから1位、2位、3位の身体部位が効果線の付与対象となるが、例えば、1位、3位、5位の身体部位を、効果線の付与対象としてもよい。また、2位、3位、5位としても良い。必ずしも1位の身体部位が含まれる必要はない。上位に位置する身体部位であればよい。どの順位を付与対象外とするかは任意に設定すればよい。この処理を実現するには、例えば、上記の変形例において繰返し回数を5回にして効果線付与範囲を設定する。その際に、繰返し回数のカウント値が2のときと4のときに設定する効果線付与範囲に対し、フラグを立てておく。フラグが立てられた効果線付与範囲を、S62の効果線付与処理において除外する。このようにすれば、繰返し回数のカウント値が1,3,5のときに設定された効果線付与範囲、すなわち、移動量が1位、3位、5位の身体部位に対し、効果線を付与することができる。
なお、上記の変形例において、隣接部位を、上位の順位に位置する所定数の身体部位の対象から除いてもよい。具体的には、S49の後に、本実施の形態と同様に、S51〜S54の処理を行い、S56に進めばよい。また、所定数については、あらかじめ決めておいてもよい。あるいは、例えば、平均移動量よりも移動量の大きな身体部位の数をもとに、その半数を、所定数としてもよい。
なお、本実施の形態においては、PC1が「漫画作成支援装置」に相当する。S1の配置設定処理で、オブジェクト(キャラクタ)を三次元仮想空間60内に配置するCPU2が、「第1配置手段」に相当する。また、S1の配置設定処理で、視点(仮想カメラ61)を三次元仮想空間60内に配置するCPU2が、「第2配置手段」に相当する。S27で撮影部位の部位移動距離(移動量に相当する。)を求めるCPU2が、「第1決定手段」に相当する。S48で、仮想画面69の横幅Lに対する最大移動部位の部位移動距離の比率を所定値と比較するCPU2が、「判定手段」に相当する。なお、本発明における「基準移動量」は、横幅Lに所定値を掛けたものが相当する。S91で、効果線を付与(描画)するCPU2が、「付与手段」に相当する。S36で仮想カメラ61により撮影された画像に、S91で効果線を付与し、S64でコマ画像の候補として提示するCPU2が、本発明の「第2決定手段」に相当する。S3で、ポーズ選択リスト32において選択されたキャラクタの第1ポーズ(モーション情報に相当する。)のデータをデータベースより読み込むCPU2が、本発明の「選択手段」に相当する。S29で、平均移動距離(平均移動量に相当する。)を求めるCPU2が、本発明の「第3決定手段」に相当する。
1 PC
2 CPU
5 RAM
20 操作画面
22 コマ画像表示領域
60 三次元仮想空間
61 仮想カメラ
62 撮影方向

Claims (8)

  1. 少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置であって、
    三次元仮想空間内の所定の位置にオブジェクトを配置する第1配置手段と、
    前記オブジェクトを映し出す視点を三次元仮想空間内の所定の位置に配置する第2配置手段と、
    前記オブジェクトが三次元仮想空間内で移動する移動量を決定する第1決定手段と、
    前記第1決定手段によって決定された前記オブジェクトの移動量が、基準となる基準移動量より大きいかを判定する判定手段と、
    前記判定手段によって前記オブジェクトの移動量が前記基準移動量より大きいと判定された場合に、前記オブジェクトに、前記オブジェクトの移動を表現する効果線を付与する付与手段と、
    前記視点から取得した前記オブジェクトが映し出された画像を前記コマの画像として決定する第2決定手段と、
    を備えることを特徴とする漫画作成支援装置。
  2. 前記オブジェクトは複数の身体部位を有しており、
    前記オブジェクトの前記身体部位の動作を示すモーション情報を選択する選択手段をさらに備え、
    前記第1決定手段は、前記選択手段によって選択された前記モーション情報に対応して前記オブジェクトの前記身体部位が動作する際の移動量を、複数の前記身体部位のそれぞれについて決定し、
    前記付与手段は、前記第1決定手段によって決定された複数の前記身体部位のそれぞれの移動量に基づいて、前記オブジェクトに前記効果線を付与すること
    を特徴とする請求項1に記載の漫画作成支援装置。
  3. 前記付与手段は、前記第1決定手段によって決定された複数の前記身体部位のそれぞれの移動量に基づいて、前記複数の前記身体部位の中で、前記移動量が大きい身体部位から順に、上位の順位に位置する所定数の前記身体部位に前記効果線を付与すること
    を特徴とする請求項2に記載の漫画作成支援装置。
  4. 前記第1決定手段によって決定された、複数の前記身体部位の移動量の平均移動量を決定する第3決定手段をさらに備え、
    前記判定手段は、前記第3決定手段によって決定された前記平均移動量が前記基準移動量より大きいかを判定し、
    前記付与手段は、前記判定手段によって前記基準移動量より前記平均移動量が大きいと判定された場合に、前記平均移動量に基づいて、前記オブジェクトの全身に前記効果線を付与すること
    を特徴とする請求項2に記載の漫画作成支援装置。
  5. 前記判定手段は、前記第1決定手段によって決定された、複数の前記身体部位のそれぞれの移動量が前記基準移動量より大きいかを判定し、
    前記付与手段は、前記判定手段によって前記基準移動量より移動量が大きいと判定された前記身体部位に対し、前記移動量に基づいて前記効果線を付与すること
    を特徴とする請求項2に記載の漫画作成支援装置。
  6. 前記付与手段は、前記第2決定手段が決定した前記コマの画像内に映し出された前記オブジェクトの前記身体部位に対し、前記効果線を付与することを特徴とする請求項1から5のいずれかに記載の漫画作成支援装置。
  7. 少なくとも一コマ以上のコマを含む漫画が作成されるコンピュータで実行され、前記漫画の作成を支援する漫画作成支援方法であって、
    三次元仮想空間内の所定の位置にオブジェクトを配置する第1配置ステップと、
    前記オブジェクトを映し出す視点を、三次元仮想空間内の所定の位置に配置する第2配置ステップと、
    前記オブジェクトが三次元仮想空間内で移動する移動量を決定する第1決定ステップと、
    前記第1決定ステップによって決定された前記オブジェクトの移動量が、基準となる基準移動量より大きいかを判定する判定ステップと、
    前記判定ステップによって前記オブジェクトの移動量が前記基準移動量より大きいと判定された場合に、前記オブジェクトに、前記オブジェクトの移動を表現する効果線を付与する付与ステップと、
    前記視点から取得した前記オブジェクトが映し出された画像を前記コマの画像として決定する第2決定ステップと、
    を含む漫画作成支援方法。
  8. 少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置として機能させるためのプログラムであって、
    コンピュータに、
    三次元仮想空間内の所定の位置にオブジェクトを配置する第1配置ステップと、
    前記オブジェクトを映し出す視点を、三次元仮想空間内の所定の位置に配置する第2配置ステップと、
    前記オブジェクトが三次元仮想空間内で移動する移動量を決定する第1決定ステップと、
    前記第1決定ステップによって決定された前記オブジェクトの移動量が、基準となる基準移動量より大きいかを判定する判定ステップと、
    前記判定ステップによって前記オブジェクトの移動量が前記基準移動量より大きいと判定された場合に、前記オブジェクトに、前記オブジェクトの移動を表現する効果線を付与する付与ステップと、
    前記視点から取得した前記オブジェクトが映し出された画像を前記コマの画像として決定する第2決定ステップと、
    を実行させるプログラム。
JP2010149846A 2010-06-30 2010-06-30 漫画作成支援装置、漫画作成支援方法およびプログラム Pending JP2012014391A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010149846A JP2012014391A (ja) 2010-06-30 2010-06-30 漫画作成支援装置、漫画作成支援方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010149846A JP2012014391A (ja) 2010-06-30 2010-06-30 漫画作成支援装置、漫画作成支援方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2012014391A true JP2012014391A (ja) 2012-01-19

Family

ID=45600753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010149846A Pending JP2012014391A (ja) 2010-06-30 2010-06-30 漫画作成支援装置、漫画作成支援方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2012014391A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5717077B1 (ja) * 2014-05-14 2015-05-13 株式会社Nga 漫画作成支援装置、漫画作成支援方法、およびプログラム
CN106780682A (zh) * 2017-01-05 2017-05-31 杭州玉鸟科技有限公司 一种漫画制作方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5717077B1 (ja) * 2014-05-14 2015-05-13 株式会社Nga 漫画作成支援装置、漫画作成支援方法、およびプログラム
CN106780682A (zh) * 2017-01-05 2017-05-31 杭州玉鸟科技有限公司 一种漫画制作方法及装置

Similar Documents

Publication Publication Date Title
US10863168B2 (en) 3D user interface—360-degree visualization of 2D webpage content
CN106575445B (zh) 毛皮虚拟化身动画
WO2018188499A1 (zh) 图像、视频处理方法和装置、虚拟现实装置和存储介质
JP6742869B2 (ja) 画像処理装置および画像処理方法
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
KR20170012384A (ko) 머리 회전을 갖는 아바타 얼굴 표정 애니메이션
US20090262139A1 (en) Video image display device and video image display method
JP2016518647A (ja) 体験コンテンツデータセットに関するキャンペーン最適化
WO2019093457A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2014188235A1 (en) Creation of a cinemagraph file
JP2019146155A (ja) 画像処理装置、画像処理方法およびプログラム
JP2012014657A (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
JP2011039801A (ja) 画像処理装置および画像処理方法
US10623713B2 (en) 3D user interface—non-native stereoscopic image conversion
JP2013008257A (ja) 画像合成プログラム
CN113742507A (zh) 三维展示物品的方法及相关设备
JP2017059041A (ja) 画像処理装置、画像処理方法、およびプログラム
CN104254875A (zh) 信息处理装置、信息处理方法及信息处理计算机程序产品
JP2012014391A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
JP5920858B1 (ja) プログラム、情報処理装置、深度定義方法及び記録媒体
JP2011198138A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
JP2011198135A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
CN114913277A (zh) 一种物体立体交互展示方法、装置、设备及介质
JP2004171168A (ja) 画像シミュレーションプログラム
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム