JP2011198138A - 漫画作成支援装置、漫画作成支援方法およびプログラム - Google Patents
漫画作成支援装置、漫画作成支援方法およびプログラム Download PDFInfo
- Publication number
- JP2011198138A JP2011198138A JP2010065157A JP2010065157A JP2011198138A JP 2011198138 A JP2011198138 A JP 2011198138A JP 2010065157 A JP2010065157 A JP 2010065157A JP 2010065157 A JP2010065157 A JP 2010065157A JP 2011198138 A JP2011198138 A JP 2011198138A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- image
- head
- character
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】コマ画像として用いる画像に、必ず、キャラクタの頭が含まれるようにすることができる漫画作成支援装置、漫画作成支援方法およびプログラムを提供する。
【解決手段】三次元仮想空間内に配置されたキャラクタの頭の位置座標を取得し(S12)、選択した仮想カメラで(S13)、三次元仮想空間内を撮影した場合の撮影画像に、キャラクタの頭の位置座標が含まれるか否か判定する。含まれる場合、選択した仮想カメラを候補カメラとし(S17:YES、S18)、候補カメラで撮影した画像をコマ画像の候補として提示する(S46)。また、キャラクタが複数の場合は中心位置の座標を求め(S27)、撮影画像に中心位置の座標および頭の位置座標が含まれる仮想カメラを候補カメラとする(S32:YES、S33:YES)。
【選択図】図6
【解決手段】三次元仮想空間内に配置されたキャラクタの頭の位置座標を取得し(S12)、選択した仮想カメラで(S13)、三次元仮想空間内を撮影した場合の撮影画像に、キャラクタの頭の位置座標が含まれるか否か判定する。含まれる場合、選択した仮想カメラを候補カメラとし(S17:YES、S18)、候補カメラで撮影した画像をコマ画像の候補として提示する(S46)。また、キャラクタが複数の場合は中心位置の座標を求め(S27)、撮影画像に中心位置の座標および頭の位置座標が含まれる仮想カメラを候補カメラとする(S32:YES、S33:YES)。
【選択図】図6
Description
本発明は、三次元仮想空間内の一場面を撮影した画像をコマに用いた漫画の作成を支援する漫画作成支援装置、漫画作成支援方法およびプログラムに関する。
従来、映画やアニメーション、ゲーム、漫画、写真集など様々なコンテンツの作成に、三次元コンピュータグラフィックス(CG)が用いられている。CGでは、例えば、三次元仮想空間内の様子が、同空間内に配置された仮想的なカメラであたかも撮影されたかのように、静止画(二次元画像)に変換される。CGアニメーションは、その静止画を時系列に沿って連続的に表示することで、動きのある映像(動画)として表現したものである(例えば特許文献1参照)。動画では、静止画としての視覚効果のみならず、三次元仮想空間内に配置されたオブジェクトの細かな動きを表現することができ、さらにBGMや音声、効果音などを付加して聴覚効果をも得ることができる。このように、動画により作成された作品においては、例えば作品中に登場するキャラクタの喜怒哀楽を、キャラクタの表情のみならず、動きや音声等、様々な手段を用いて容易に表現することができる。
ところで、キャラクタの喜怒哀楽を表現する手法として、例えば、キャラクタの顔や頭をアップにした画像を撮影し、視聴者にキャラクタの表情等を識別させ易くすることで、喜怒哀楽を表現する手法がある。漫画は、動画とは異なり動きや音声等による表現を付加できない。このため、上記のように撮影された画像が漫画のコマ(漫画における場面の一単位)に用いる画像(以下、「コマ画像」ともいう。)として使用されることが多い。こうした手法を、作品において語られる物語の展開に応じて適宜用いることによって、喜怒哀楽を表現する上でメリハリの効いた表現が実現され、読者に印象づけることができる。
特許文献1は動画を対象とするが、キャラクタの動作や表情、セリフなどのシナリオ要素に応じてカメラ距離が選択され、映画文法に基づく優先度に従って使用するカメラを決定するカメラワークが提案されている。例えば、キャラクタの表情に変化がある場面では、キャラクタの頭をアップにして撮影するカメラが選択され、動きのある場面では、キャラクタの全身を撮影するカメラが選択される。
しかしながら、漫画においては、上記のように動きや音声等による表現を付加できないため、コマ画像内の表現が重要視される。そのため、キャラクタの頭が、必ず、コマ画像内に含まれるようにしたいという要望がある。特許文献1では、カメラがキャラクタに向けられてはいるが、キャラクタの頭が画像内から外れてしまう虞があった。
本発明は、上記課題を解決するためになされたものであり、コマ画像として用いる画像に、必ず、キャラクタの頭が含まれるようにすることができる漫画作成支援装置、漫画作成支援方法およびプログラムを提供することを目的とする。
本発明の第1態様によれば、少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置であって、三次元仮想空間内の所定の位置に、少なくとも頭と、頭と異なる身体部位とを含むオブジェクトを配置する配置手段と、三次元仮想空間における前記オブジェクトの頭の位置を示す頭位置情報を取得する第1取得手段と、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の位置を示す視点位置情報と、前記視点の視線方向を示す視線方向情報と、前記視点から取得される画像の画角を示す画角情報とを取得する第2取得手段と、前記頭位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視線方向から前記オブジェクトを映し出した画像に、前記オブジェクトの頭が含まれるか否かを判定する第1判定手段と、前記第1判定手段に含まれると判定された前記視点により取得された画像を、前記コマの画像の候補として提示する提示信号を発生する信号発生手段と、を備える漫画作成支援装置が提供される。
第1態様では、撮影された画像内にオブジェクトの頭が含まれているか否かについて判定が行われることで、オブジェクトの頭が含まれる画像のみが、コマ画像の候補として提示される。このため、確実に、オブジェクトの頭が含まれる画像を、コマ画像の候補として提示することができる。
第1態様は、前記配置手段により前記オブジェクトが複数配置された場合、前記オブジェクトのそれぞれの前記頭位置情報に基づいて、複数の前記オブジェクトの配置位置の中心位置を示す中心位置情報を決定する決定手段と、前記中心位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視点方向から前記オブジェクトを映し出した画像に、前記中心位置が含まれるか否かを判定する第2判定手段と、をさらに備えてもよい。この場合に、前記信号発生手段は、前記第2判定手段に含まれると判定された前記視点により取得された画像を、前記コマ画像の候補として提示する前記提示信号を発生してもよい。
オブジェクトが複数の場合には、撮影された画像内に複数のオブジェクトの中心位置も含まれるようにすることで、撮影画像として、複数のオブジェクトが映し出された画像が生成されやすい。その上で、オブジェクトの頭を含む画像がコマ画像の候補として提示されることで、複数のオブジェクトが映し出された画像であっても、確実に、オブジェクトの頭が含まれる画像を、コマ画像の候補として提示することができる。
第1態様は、前記視点の前記視線方向に沿って前記視点の視点位置を移動させる制御、または、前記視点から取得される画像の画角を変更する制御を行う制御手段をさらに備えてもよい。そして、前記第2判定手段に含まれると判定された前記視点がなかった場合、前記制御手段は、それぞれの前記視点に対し、前記視点の視点位置を前記オブジェクトから遠ざける制御、または、前記視点から取得される画像の画角を大きくする制御を行い、前記第2取得手段は、それぞれの前記視点から、前記視点位置情報と前記視線方向情報と前記画角情報とを取得し、前記第2判定手段は、それぞれの前記視点から前記オブジェクトを映し出した画像に前記中心位置が含まれるか否かを判定し、前記信号発生手段は、前記第2判定手段に含まれると判定された前記視点により取得された画像を、前記コマ画像の候補とする前記提示信号を発生してもよい。
撮影された画像内に複数のオブジェクトの中心位置が含まれない場合は、視点をオブジェクトから遠ざける制御、あるいは、視点の画角を大きくする制御を行うことができる。これにより、いわゆるズームアウトした画像を撮影することができる。よって、撮影画像内に、中心位置を含めやすくすることができる。その上で、オブジェクトの頭を含む画像がコマ画像の候補として提示されることで、複数のオブジェクトが映し出された画像であっても、確実に、オブジェクトの頭が含まれる画像を、コマ画像の候補として提示することができる。
第1態様は、前記オブジェクトのそれぞれに重要度を設定可能な重要度設定手段をさらに備えてもよい。そして、前記第2判定手段に含まれると判定された前記視点がなかった場合、前記第1判定手段は、それぞれの前記視点において、前記オブジェクトを映し出した画像に、前記重要度が最も高い前記オブジェクトの頭が含まれるか否かを判定し、前記信号発生手段は、前記第1判定手段に含まれると判定された前記視点により取得された画像を、前記コマ画像の候補とする前記提示信号を発生してもよい。
撮影された画像内に複数のオブジェクトの中心位置が含まれない場合は、重要度が最も高いオブジェクトの頭が含まれているか否かについて判定を行うことができる。これにより、重要度が最も高いオブジェクトの頭が含まれる画像のみが、コマ画像の候補として提示される。このため、確実に、重要度が最も高いオブジェクトの頭が含まれる画像を、コマ画像の候補として提示することができる。
第1態様は、前記提示信号に基づき選択された画像を、前記コマ画像として決定する画像決定手段をさらに備えてもよい。提示される複数の画像の中から選択された画像をコマ画像として決定することができるので、より望ましい画像をコマ画像として用いることができる。
第1態様は、前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、三次元仮想空間内の任意の位置の座標を、前記視点から映し出した画像における二次元の座標に変換する座標変換手段をさらに備えてもよい。この場合に、前記第1判定手段は、前記座標変換手段によって二次元の座標に変換された前記オブジェクトの頭の位置座標が、前記視点から映し出した画像内に含まれるか否かを判定してもよい。座標変換手段が、三次元仮想空間内の座標から二次元の座標に変換するので、オブジェクトの頭が含まれるか否かについて、座標に基づく判定を行うことができる。よって、コマ画像の候補として提示する画像に、オブジェクトの頭が含まれることの確実性を、より高めることができる。
本発明の第2態様によれば、少なくとも一コマ以上のコマを含む漫画が作成されるコンピュータで実行され、前記漫画の作成を支援する漫画作成支援方法であって、三次元仮想空間内の所定の位置に、少なくとも頭と、頭と異なる身体部位とを含むオブジェクトを配置する配置ステップと、三次元仮想空間における前記オブジェクトの頭の位置を示す頭位置情報を取得する第1取得ステップと、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の位置を示す視点位置情報、前記視点の視線方向を示す視線方向情報、および、前記視点から取得される画像の画角を示す画角情報を取得する第2取得ステップと、前記頭位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視線方向から前記オブジェクトを映し出した画像に、前記オブジェクトの頭が含まれるか否かを判定する第1判定ステップと、前記第1判定ステップに含まれると判定された前記視点により取得された画像を、前記コマの画像の候補として提示する提示信号を発生する信号発生ステップと、を含む漫画作成支援方法が提供される。
また、本発明の第3態様によれば、少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置として機能させるためのプログラムであって、コンピュータに、三次元仮想空間内の所定の位置に、少なくとも頭と、頭と異なる身体部位とを含むオブジェクトを配置する配置ステップと、三次元仮想空間における前記オブジェクトの頭の位置を示す頭位置情報を取得する第1取得ステップと、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の位置を示す視点位置情報、前記視点の視線方向を示す視線方向情報、および、前記視点から取得される画像の画角を示す画角情報を取得する第2取得ステップと、前記頭位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視線方向から前記オブジェクトを映し出した画像に、前記オブジェクトの頭が含まれるか否かを判定する第1判定ステップと、前記第1判定ステップに含まれると判定された前記視点により取得された画像を、前記コマの画像の候補として提示する提示信号を発生する信号発生ステップと、を実行させるプログラムが提供される。
第2態様に係る漫画作成支援方法に従う処理をコンピュータで実行することによって、あるいは、第3態様に係るプログラムを実行してコンピュータを漫画作成支援装置として機能させることで、第1態様と同様の効果を得ることができる。
以下、本発明を具体化した一実施の形態について、漫画作成支援プログラムがインストールされたパーソナルコンピュータ(PC)1を漫画作成支援装置の一例とし、図面を参照して説明する。なお、参照する図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、それのみに限定する趣旨ではなく、単なる説明例である。
まず、図1を参照し、PC1の電気的な構成について説明する。PC1は周知のパーソナルコンピュータであり、PC1の制御を司るCPU2を備えている。CPU2には、バス3を介して、ROM4、RAM5、入出力(I/O)インタフェイス6が接続されている。ROM4は、CPU2が実行するBIOS等のプログラムを記憶する読出し専用の記憶装置である。RAM5は、データを一時的に記憶する読み書き可能な記憶装置である。
入出力インタフェイス6には、ハードディスクドライブ(HDD)7、マルチディスクドライブ8、表示制御部9、キーボード10、マウス11が接続されている。マルチディスクドライブ8は、例えばCD−ROMやDVD−ROMなど、データが記憶された記憶媒体であるディスクROM12が挿入されると、ディスクROM12からデータやプログラム等の読み込みを行うものである。記憶装置であるHDD7には、ディスクROM12から読み出されたプログラムがインストールされ、また、データ等が記憶される。なお、本実施の形態では、後述する漫画作成支援プログラムがディスクROM12に記憶されて提供されるが、フラッシュROMなど、その他の記憶媒体に記憶されて提供されてもよい。あるいは、図示しないネットワークインタフェイスを介して接続されるネットワーク上のサーバから、ダウンロードにより、提供されてもよい。表示制御部9は、後述する漫画作成支援プログラムの実行に伴い、操作画面20(図2参照)をモニタ13に表示するための描画処理を行う。キーボード10、マウス11は、漫画作成支援プログラムにおいては、操作画面20上での各種操作や文字等の入力に用いられる。
次に、図2を参照して、モニタ13に表示される操作画面20について説明する。操作画面20は、漫画作成支援プログラムが起動され、後述するメイン処理が開始されるとモニタ13に表示される画面である。ユーザは、操作画面20を見ながらキーボード10やマウス11を用いて、編集や設定のためのデータや指示の入力を行うことができる。
図2に示すように、操作画面20は、コマ表示領域21とキャラクタ設定領域31との2つの表示領域に分かれている。操作画面20の左側のコマ表示領域21には、コマ画像表示領域22が設けられている。コマ表示領域21の下部には、新規コマ作成ボタン25が設けられている。また、コマ画像表示領域22の下部には、コマ番号26が表示される。操作画面20の右側のキャラクタ設定領域31には、セリフ入力ボックス32が設けられ、セリフ入力ボックス32の右側に、重要度選択リスト33が設けられている。キャラクタ設定領域31の下部には、新規キャラクタ作成ボタン35が設けられている。また、セリフ入力ボックス32の上部左側には、キャラクタ選択リスト36が設けられている。なお、セリフ入力ボックス42,52、重要度選択リスト43,53、キャラクタ選択リスト46,56については後述する。
コマ画像表示領域22には、後述する三次元仮想空間60(図3参照)内を、仮想カメラで映しだした画像が表示される。新規コマ作成ボタン25は、新たなコマが作成される場合に操作されるボタンである。新規コマ作成ボタン25が操作された場合には、コマ表示領域21に、新たなコマ画像表示領域22が、新たなコマ番号26とともに、既に表示されているコマ画像表示領域22の下部に追加で表示される。なお、コマ数が増えた場合には、スクロールバー27でコマ表示領域21を上下にスクロールさせることができる。
キャラクタ設定領域31のキャラクタ選択リスト36は、三次元仮想空間60内に配置するキャラクタの容姿(CG)を選択するためのリストボックスである。あらかじめインストールされた複数のキャラクタから任意のキャラクタを、そのキャラクタに対応付けられた名称(例えば後述するフィギュアA、フィギュアBなど)で、リストボックスにより指定することができる。キャラクタ選択リスト36には選択されたキャラクタの名称が表示される。セリフ入力ボックス32は、三次元仮想空間60(図3参照)内に配置されるキャラクタのセリフを入力可能なテキストボックスである。セリフの入力がなければ、コマ画像にセリフは表示されない。重要度選択リスト33は、キャラクタの重要度を設定するためのリストボックスである。ユーザが、リストボックスの右隅にある逆三角形のマークをマウス11のカーソルでクリックして押下すると、キャラクタの重要度として、場面内におけるキャラクタの位置づけの選択候補(例えば主人公、サブキャラ、モブキャラなど)が表示される。キャラクタの位置づけは、キャラクタの重要度を数値の大小として比較できるように、あらかじめ、重要度に応じた数値が設定されている。例えば、主人公の重要度の値は、サブキャラの重要度の値よりも高くなるように配分されている。なお、重要度は、必ずしも上記した位置づけが用いられて設定される必要はない。例えば、A/B/Cなどのランクが設けられ、ランクに対応した数値で設定されてもよい。あるいは、重要度を示す数値が直接入力されることにより設定されてもよい。
新規キャラクタ作成ボタン35は三次元仮想空間60(図3参照)内に新たなキャラクタが配置される場合に操作されるボタンである。新規キャラクタ作成ボタン35が操作された場合には、キャラクタ設定領域31に、新たなキャラクタ用(ここではフィギュアB)の項目が表示される。新たなキャラクタ用の項目とは、具体的に、セリフ入力ボックス42、重要度選択リスト43およびキャラクタ選択リスト46である。これらの項目が、既に表示されているキャラクタ用(ここではフィギュアA)のセリフ入力ボックス32等の下部に追加される。キャラクタ数はさらに追加することができる。再度、新規キャラクタ作成ボタン35が操作されれば、3体目のキャラクタ用(ここではフィギュアC)のセリフ入力ボックス52、重要度選択リスト53およびキャラクタ選択リスト56が、セリフ入力ボックス42等の下部に追加される。なお、上記同様、キャラクタ数が増えた場合には、スクロールバー37でキャラクタ設定領域31を上下にスクロールさせることができる。上記のメニューの選択結果やテキストボックスに入力された情報は、漫画作成支援プログラムの実行により指定されたRAM5の所定の記憶エリアに記憶される。
次に、図3を参照し、三次元仮想空間60について説明する。三次元仮想空間60は、漫画作成支援プログラムの実行に伴いCPU2がRAM5に確保した所定の記憶エリアに記憶される座標データ等によって構成されるものである。本実施の形態では、理解を容易にするため、座標データ等に基づき定義される仮想的な空間を、三次元仮想空間60として、例えば図3に示すように、模式的に図に表して説明する。この三次元仮想空間60内のあらゆるオブジェクトは、XYZ座標軸に基づく座標データとして定義される。
三次元仮想空間60内の所定の座標に、キャラクタの一例としてのフィギュアA、フィギュアBおよびフィギュアCと、背景の一例としての部屋63とが配置される。部屋63は、背景を構成するオブジェクトとして配置される6つの壁面からなる。さらに、キャラクタの配置位置(座標)を取り巻く24カ所の定位置(ここでは部屋63の壁面の定位置)に、視点(図中黒丸で示す。)が設けられるものとする。説明を容易にするため、各視点には、あらかじめ撮影方向62(視線方向)および画角(垂直画角θ1、水平画角θ2(図4参照)(0°<θ1<180°、0°<θ2<180°))が設定された仮想カメラ61(図3ではそのうちの2つを示す。)が配置されたものとする。そして、仮想カメラ61で三次元仮想空間60内を撮影した画像が、後述するコマ画像として用いられることとする。なお、三次元仮想空間60内に配置されるキャラクタ数や視点数は一例であり、任意に増減可能である。また、キャラクタと視点の配置位置の関係についても任意に設定可能である。
ここで、仮想カメラ61で三次元仮想空間60内が撮影され、二次元の画像が生成される過程について、簡単に説明する。本実施の形態において、三次元仮想空間60内に配置されたオブジェクト(キャラクタのみならず背景等もオブジェクトの一つである。)を二次元の画像に変換する処理は、アフィン変換に基づく一連の座標変換処理によって行われる。アフィン変換とは、二次元の座標変換に使用され、拡大、縮小、反転などの線形変換と平行移動が結合された変換方法である。アフィン変換を用いることで、三次元仮想空間60内に配置した個々のオブジェクトごとに設定された座標(ローカル座標)を、ワールド座標、ビュー座標、スクリーン座標、デバイス座標に順に変換して二次元の座標とすることができる。これにより、視点からオブジェクトを見た画像が生成される。このアフィン変換による座標変換の具体的な処理については公知である。ゆえに、以下では、三次元仮想空間60内に配置したオブジェクトの一例としてのフィギュアAのローカル座標がデバイス座標に変換されるまでの一連の過程の概要を説明する。
図4に示すように、フィギュアAは、頭、胸、手、足など、要所となる身体部位(図中黒丸で示す。)が、それぞれ、XYZ座標軸に基づく座標データとして定義されている。これらの各身体部位の座標は、オブジェクトの基準とする座標(例えば頭の座標)を原点とする位置座標(ローカル座標系64の座標)で、それぞれ定義されている。なお、身体の細部については、さらにこれらの各身体部位を基準にした座標データで定義され、公知のテクスチャマッピング等によって表現されるが、ここでは簡略化のため、細部についての説明は省略する。
フィギュアAの各身体部位のローカル座標系64の座標が、三次元仮想空間60に設定された基準の位置を原点に、三次元仮想空間60の全体をXYZ座標軸に基づく座標データで定義されたワールド座標系65の座標に変換される。また、三次元仮想空間60内に、フィギュアAを見る視点(仮想カメラ61)が設置され、視点の位置がワールド座標系65の座標で定義される。
三次元仮想空間60を定義したワールド座標系65の座標が、視点の位置座標を原点とするビュー座標系66の座標に変換される。そして、ビュー座標系66の座標として定義された三次元仮想空間60内に、平面状の仮想スクリーン68が定義され、仮想カメラ61から仮想スクリーン68を透過させてフィギュアAを見た画像が、仮想スクリーン68上に形成される。具体的に、ビュー座標系66において、フィギュアAの各身体部位の座標が、仮想カメラ61(視点)とフィギュアAの各身体部位とを結ぶ仮想線(図中一点鎖線で示す。)が仮想スクリーン68と交わる点の座標(スクリーン座標)に変換される。
こうして仮想スクリーン68上の座標に変換されたフィギュアAの各身体部位の座標は、この時点ではまだビュー座標系66において三次元の座標として定義されているので、次に二次元平面の座標に変換される。すなわち、ビュー座標系66で示される仮想スクリーン68上の座標(スクリーン座標)が、上記した操作画面20のコマ画像表示領域22(図2参照)に表示する大きさの、デバイス座標系67で示される二次元の仮想画面69上の座標(デバイス座標)に変換される。以上のアフィン変換によるローカル座標からデバイス座標に変換する一連の座標変換によって、三次元仮想空間60内に配置された視点から見た、仮想スクリーン68上にフィギュアAが映しだされた画像を、仮想画面69として得ることができる。背景も含め、三次元仮想空間60内に配置されるすべてのオブジェクトについても同様である。アフィン変換による座標変換処理は、後述の漫画作成支援プログラムの実行に伴うCPU2による行列演算によって行われ、形成された仮想画面69は、RAM5の所定の記憶エリアに記憶される。
また、後述する漫画作成支援プログラムでは、仮想画面69に、撮影対象が映し出されているか否かについての判定を行っている。この判定は、アフィン変換による座標変換処理の過程において行われる。具体的には、フィギュアAの各身体部位の座標が仮想スクリーン68上のスクリーン座標に変換される際に、判定対象となる部位(例えば頭)の座標が、仮想スクリーン68上の座標として取りうる座標の範囲内に含まれるか否かによって判定される。
ここで、図5を参照し、説明を容易にするため、仮想スクリーン68の垂直方向において、撮影対象が撮影範囲内に含まれるか否かを判定する方法について、簡単に説明する。上記したように、仮想カメラ61には撮影方向62および画角(垂直画角θ1、水平画角θ2)が設定されている。図5は、仮想カメラ61の設置位置、すなわち視点をP1とし、P1の座標を原点(x,y,z)=(0,0,0)とするビュー座標系66において、Z軸方向の座標を0としたものである。また、仮想カメラ61の撮影方向62をX軸方向とし、仮想スクリーン68は、垂直方向(Y軸方向)の中央の点P2が、座標(a,0,0)に配置されている。
例えば、ビュー座標系66に変換されたフィギュアAの頭P5の座標を(b,c,0)としたとき、視点P1と頭P5とを結ぶ仮想線と、仮想スクリーン68とが交差する点P6が、仮想スクリーン68上に映し出されるフィギュアAの頭の位置座標となる。よって、P6の座標は、(a,ac/b,0)となる。仮想カメラ61の垂直画角がθ1であるので、仮想スクリーン68の垂直方向における両端の点P3,P4の座標は、それぞれ、P3(a,a・tan(θ1/2),0)、P4(a,−a・tan(θ1/2),0)となる。よって、仮想スクリーン68上に映し出されるフィギュアAの頭P6のY座標、ac/bが、−a・tan(θ1/2)≦ac/b≦a・tan(θ1/2)を満たせば、フィギュアAの頭P5は、仮想スクリーン68の垂直方向において、撮影範囲内にあると判定することができる。
仮想スクリーン68の水平方向についても、水平画角θ2に基づく同様の判定を行うことで、撮影対象が撮影範囲内にあるか否かを判定することができる。そして、垂直方向および水平方向において共に撮影範囲内にあると判定されれば、フィギュアAの頭P5を仮想スクリーン68内に映し出すことができる。すなわち仮想カメラ61がフィギュアAの頭P5を撮影可能である判定することができる。
次に、図2の操作画面20を適宜参照しながら、図6を参照し、PC1にインストールされた漫画作成支援プログラムの動作について説明する。以下、フローチャートの各ステップを「S」と略記する。
本実施の形態のPC1は、漫画作成支援プログラムが実行されることにより、漫画作成支援装置として機能するものである。漫画作成支援装置は、三次元仮想空間内に配置したオブジェクトを、三次元仮想空間内の視点から映しだした画像をコマの画像とする漫画の作成を支援する装置である。モニタ13に上記した操作画面20が表示され、その操作画面20において各種設定が行われることで、コマ画像表示領域22に表示される画像が変化し、ユーザの求めるコマ画像が作成される。
図6に示すフローチャートは、操作画面20におけるユーザの操作に応じ、コマ画像表示領域22に表示するコマ画像の生成を行う、コマ画像生成処理のフローチャートである。コマ画像生成処理は、漫画作成支援プログラムのモジュールの一つとして組み込まれ、PC1にインストールされて、HDD7に記憶されている。ユーザが漫画作成支援プログラムの実行ファイルを起動させると、CPU2が、漫画作成支援プログラムのメインプログラム(図示外)に従い、コマ画像生成処理を含む各モジュールを呼び出して実行する。また、RAM5やHDD7には、漫画作成支援プログラムの各処理に応じた記憶エリアが確保される。なお、以下の処理はCPU2により実行される。
漫画作成支援プログラムのメインプログラムでは、初期設定において、プログラム内で使用される変数やフラグ、カウンタ等の初期化が行われる。また、三次元仮想空間60内にオブジェクトとして配置する背景やキャラクタ等に関する各設定や、オブジェクトを構成するポリゴン、テクスチャ等のグラフィックスデータ(以下、総称して「CGデータ」ともいう。)として、HDD7からデフォルトの設定が読み込まれ、RAM5に書き込まれる。
メインプログラムから、図6のコマ画像生成処理のモジュールが呼び出されると、まず、配置設定処理が行われ、三次元仮想空間60内のオブジェクトの一つとして設ける背景のデータが設定される(S1)。本実施の形態では、背景として部屋63の壁面(図3参照)が設定されるものとする。なお、背景として、屋外や、屋内であっても部屋63とは異なる様々な部屋など、任意の舞台を選択できるように、操作画面20にリストボックス等を設けてもよい。
また、配置設定処理では、ワールド座標系65において、背景やキャラクタなどのオブジェクトのローカル座標系64における基準(原点)を三次元仮想空間60内で配置する位置が設定される。また、視点、光源(図示外)等の配置位置の座標(ワールド座標データ)も設定される。各視点には、それぞれ仮想カメラ61(図3参照)が配置され、仮想カメラ61ごとに、視線方向(撮影方向62(図3参照))や画角(垂直画角θ1、水平画角θ2(図4参照))が設定される。なお、本実施の形態では、視点ごとの仮想カメラ61の視線方向および画角は、あらかじめ定められているものとする。メインプログラム(図示外)の初期設定において、HDD7にインストールされた視線方向や画角のデータが初期値として読み出され、RAM5に書き込まれる。上記同様、各視点の位置や各仮想カメラ61の視線方向、画角についても、操作画面20から、ユーザが任意に設定できるようにしてもよい。
さらに、配置設定処理では、三次元仮想空間60内にキャラクタを配置する処理が行われる。図3に示すように、本実施の形態では、三次元仮想空間60内に3体のキャラクタ(フィギュアA、フィギュアBおよびフィギュアC)が配置されている。初期設定では、三次元仮想空間60内にキャラクタは配置されておらず、前述した新規キャラクタ作成ボタン35の操作によって、1体目のキャラクタ(フィギュアA)が配置される。さらに新規キャラクタ作成ボタン35が操作されることによって、2体目、3体目のキャラクタ(フィギュアB、フィギュアC)が追加される。もちろん、三次元仮想空間60内に任意の数のキャラクタを配置できるようにしてもよい。
キャラクタの配置は、具体的には以下のように行われる。まず、キャラクタ選択リスト36で設定されたキャラクタ(ここではデフォルトのフィギュアA)のCGデータがHDD7から読み込まれ、RAM5に書き込まれる。より詳細には、キャラクタ選択リスト36で設定されたキャラクタ(フィギュアA)の各身体部位のローカル座標データ、各身体部位に対応した細部のローカル座標データ、細部に対応したテクスチャデータなどが読み込まれる。
次に、キャラクタの立ち位置、すなわち、三次元仮想空間60内においてキャラクタ(フィギュアA)を配置する位置が選択される。キャラクタの配置位置は、上記のように、ワールド座標データが設定されている。本実施の形態では、キャラクタを配置可能な位置があらかじめ決められており、各キャラクタの設定順(たとえば操作画面20のキャラクタ設定領域31において上からの順)に、各配置位置へ割り当てられるものとする。キャラクタの配置位置のワールド座標データが、上記したキャラクタのCGデータと対応づけられ、RAM5に書き込まれる。もちろん、三次元仮想空間60内の任意の位置に任意のキャラクタを配置できるように、操作画面20からユーザが設定できるようにしてもよい。
さらに、キャラクタ(フィギュアA)の顔が向く向き(顔方向)が、ワールド座標系65のデータとして設定される。本実施の形態では、すべての配置位置について、配置されるキャラクタの顔方向は、あらかじめ定められているものとする。もちろん、三次元仮想空間60内の任意の向きにキャラクタの顔を向けられるように、操作画面20からキャラクタごとの顔方向をユーザが設定できるようにしてもよい。
そして、各データが揃ったキャラクタ(フィギュアA)が、三次元仮想空間60内に配置される。具体的には、キャラクタの基準の座標(ここでは頭の座標)が、S1の配置設定処理で設定された配置位置の座標とされ、上記したアフィン変換に基づき、ローカル座標系64の座標からワールド座標系65の座標に変換される。次いで顔方向や各身体部位の座標がワールド座標系65において設定される。さらに、各身体部位に応じた細部の座標がローカル座標系64からワールド座標系65の座標に変換され、また、テクスチャデータの大きさや貼り付ける座標がワールド座標系65で設定される。これにより、図3に示すように、三次元仮想空間60内に、キャラクタ(フィギュアA)が、仮想的に配置された状態となる。新規キャラクタ作成ボタン35の操作によって追加される2体目、3体目のキャラクタ(フィギュアB、フィギュアC)の配置についても同様である。
図6に示す、コマ画像生成処理では、S2において、キャラクタ設定処理が行われる。ここでは、三次元仮想空間60に配置されたキャラクタのセリフや重要度の設定が行われる。配置されたすべてのキャラクタについて、セリフおよび重要度と、キャラクタのCGデータとが対応づけられ、RAM5に書き込まれる。セリフは、図2に示す、操作画面20のセリフ入力ボックス32に入力されたものである。重要度は、重要度選択リスト33で選択されたキャラクタの位置づけに応じた数値である。デフォルトの状態ではセリフはなく、重要度は、もっとも低い値が設定された「モブキャラ」に設定される(例えばフィギュアC)。上記したように、三次元仮想空間60はRAM5に確保された記憶エリアにおいて座標データ等により定義される不可視の空間であり、この処理において直接的な画像生成がなされるわけではない。
キャラクタ総数が0か否か確認される(S3)。三次元仮想空間60へのキャラクタの配置前は(S3:YES)、撮影対象となるキャラクタがいない。三次元仮想空間60の24カ所に配置されたすべての仮想カメラ61が候補カメラとして設定され、RAM5の所定の記憶エリアに記録される(S4)。S46に進み、RAM5に候補カメラとして記憶されたすべての仮想カメラ61で、上記したアフィン変換に基づく一連の座標変換処理によって、三次元仮想空間60内が撮影され、二次元の画像が生成される。生成されたすべての画像が、コマ画像の候補として、図示しない提示画面に並べて表示される(S46)。ここでは、キャラクタが配置されていないので、様々な仮想カメラ61により背景(部屋63の壁面)が撮影された画像が提示されることとなる。提示画面に表示された複数の画像から1つの画像がユーザによって選択されるのを待つ(S47:NO)。1つの画像が選択されたら(S47:YES)、選択された画像がコマ画像として決定され、コマ画像表示領域22に表示される(S52)。このように、コマ画像の候補として複数の画像が提示画面で提示され、ユーザにより選択された1つの画像が、コマ画像として用いられることとなる。コマ画像表示領域22へのコマ画像の表示が完了すると、コマ画像生成処理は終了され、図示外のメインプログラムに戻る。
メインプログラムにおいて、マウス11やキーボード10から操作画面20に対する操作が行われると、その操作に応じたモジュールが呼び出されて実行される。コマ画像の書き換えを伴う処理においては、再度、コマ画像生成処理が実行される。例えば、操作画面20で新規キャラクタ作成ボタン35が押された場合、コマ画像生成処理のモジュールが呼び出され、S1の配置設定処理が行われる。なお、本実施の形態では、視点やキャラクタの配置位置があらかじめ定められているので、背景や光源についての変更がなされない限り、これらの設定に係る処理は行わなくともよい。よってここでは、キャラクタの配置に関する処理が行われ、三次元仮想空間60内に1体目のキャラクタ(フィギュアA)が仮想的に配置された状態となる。
新規キャラクタ作成ボタン35の操作によって1体目のキャラクタ(フィギュアA)のみが配置(すなわちキャラクタ総数=1)された場合(S3:NO、S11:YES)、S12に進む。配置されたキャラクタの情報として、キャラクタの頭の位置座標(頭座標)が取得される(S12)。前述したS1の配置設定処理において三次元仮想空間60内に配置され、ワールド座標系65で設定されたキャラクタ(フィギュアA)の頭の位置座標が読み込まれ、RAM5の作業用の記憶エリアに書き込まれる。
次に未選択の仮想カメラ61(視点)の1つが選択され(S13)、選択された仮想カメラ61の情報が取得される(S14)。仮想カメラ61の情報とは、すなわち、配置位置の座標(ワールド座標データ)、視線方向(撮影方向62)、画角(垂直画角θ1、水平画角θ2)の情報である。
取得された各情報に基づき、上記したアフィン変換が行われる(S16)。ここでは、S12で取得されたキャラクタの頭の位置座標に対し、アフィン変換によるワールド座標からビュー座標への座標変換が行われる。そして、キャラクタの頭の位置座標が、選択された仮想カメラ61の撮影範囲内(仮想スクリーン68内)に含まれるか否か、前述のように判定される(S17)。キャラクタの頭の位置座標が撮影範囲内に含まれなければ(S17:NO)、S19に進む。キャラクタの頭の位置座標が撮影範囲内に含まれる場合には(S17:YES)、この仮想カメラ61が、キャラクタの頭を撮影可能なカメラの候補(候補カメラ)として、RAM5の所定の記憶エリアに記録される(S18)。そしてS19に進む。
S13〜S18の処理は、三次元仮想空間60内に配置されたすべての仮想カメラ61に対して行われる。よって、未選択の仮想カメラ61があれば、S13に戻る(S19:NO)。すべての仮想カメラ61が選択され、それぞれに対しS13〜S18の処理が行われると(S19:YES)、S46に進む。S46では、上記したように、各候補カメラにより、フィギュアAの頭が映し出された撮影画像が、コマ画像の候補として、提示画面(図示外)に並べて表示される(S46)。そして、ユーザにより選択された1つの画像がコマ画像としてコマ画像表示領域22へ表示されると(S47:YES、S52)、コマ画像生成処理は終了され、図示外のメインプログラムに戻る。
メインプログラムにおいて、さらなる新規キャラクタ作成ボタン35の操作によって2体目以降のキャラクタ(フィギュアB、フィギュアC)が配置(すなわちキャラクタ総数>1)された場合(S3:NO、S11:NO)、S26に進む。ここでは、キャラクタの情報として、配置されたすべてのキャラクタ(すなわちフィギュアA,B,C)の頭の位置座標と、配置位置の座標が取得され、RAM5の作業用の記憶エリアに書き込まれる(S26)。
次に、取得されたキャラクタの配置座標から、中心位置の座標が算出される(S27)。本実施の形態では、キャラクタの頭の座標がキャラクタの基準の座標として設定されているので、中心位置の座標は、各キャラクタの頭の位置の座標から求められる。ワールド座標系65における各キャラクタのX座標の和(ただし0ではない)をキャラクタ総数(ここでは3)で割ったものが、中心位置のX座標に設定される。中心位置のY座標、Z座標についても同様に、各キャラクタのY座標の和(ただし0ではない)、Z座標の和(ただし0ではない)をそれぞれキャラクタ総数(ここでは3)で割ったものが、設定される。
次に未選択の仮想カメラ61(視点)の1つが選択され(S28)、S14と同様に、選択された仮想カメラ61の情報が取得される(S29)。すなわち、選択された仮想カメラ61の配置位置の座標(ワールド座標データ)、視線方向(撮影方向62)、画角(垂直画角θ1、水平画角θ2)が取得される。
取得された各情報に基づき、上記したアフィン変換が行われる(S31)。S26で取得されたキャラクタの頭の位置座標と、S27で算出された中心位置の座標とに対し、アフィン変換によるワールド座標からビュー座標への座標変換が行われる。まず、中心位置の座標が、選択された仮想カメラ61の撮影範囲内(仮想スクリーン68内)に含まれるか否か、前述のように判定される(S32)。中心位置の座標が撮影範囲内に含まれなければ(S32:NO)、S36に進む。中心位置の座標が撮影範囲内に含まれる場合には(S32:YES)、次に、キャラクタの頭の位置座標が、選択された仮想カメラ61の撮影範囲内(仮想スクリーン68内)に含まれるか否か、同様に判定される(S33)。S33では、複数のキャラクタの頭の位置座標について、1体ずつ順に、撮影範囲内に含まれるか否か判定され、すべてのキャラクタの頭の位置座標が撮影範囲内に含まれなければ(S33:NO)、S36に進む。頭の位置座標が撮影範囲内に含まれるキャラクタが1体でもあれば(S33:YES)、この仮想カメラ61が、キャラクタの頭を撮影可能なカメラの候補(候補カメラ)として、RAM5の所定の記憶エリアに記録される(S34)。そしてS36に進む。
S28〜S34の処理は、三次元仮想空間60内に配置されたすべての仮想カメラ61に対して行われる。よって、未選択の仮想カメラ61があれば、S28に戻る(S36:NO)。すべての仮想カメラ61が選択され、それぞれに対しS28〜S34の処理が行われると(S36:YES)、S37に進む。
S37において、S28〜S34の処理によって選択された候補カメラが1以上あれば(S37:YES)、S46に進む。そして、複数のキャラクタの中心位置が含まれ、キャラクタの頭が映し出された、各候補カメラによる撮影画像が、コマ画像の候補として、提示画面(図示外)に並べて表示される(S46)。同様に、ユーザにより選択された1つの画像がコマ画像としてコマ画像表示領域22へ表示されると(S47:YES、S52)、コマ画像生成処理は終了され、図示外のメインプログラムに戻る。
一方、S37において、S28〜S34の処理によって選択された候補カメラがなかった場合(S37:NO)、S38に進む。すべての仮想カメラ61の配置位置について再計算が行われ、撮影方向62に沿って撮影向きに対しマイナス方向(キャラクタから遠ざかる方向)に、所定距離(所定値)、仮想カメラ61の配置位置が移動される(S38)。さらに、S28〜S36の処理で行われた仮想カメラ61の選択状態がリセットされ、いずれの仮想カメラ61も未選択の状態に設定される(S39)。その後S28に戻り、再度、S28〜S36の処理が繰り返されることによって、配置位置が移動された仮想カメラ61から、候補カメラが選択される。このように、配置位置が、撮影向きに対しマイナス方向に移動された仮想カメラ61によって撮影される画像は、もとの位置において撮影された画像をズームアウトした状態となる。仮想カメラ61の配置位置を移動せず、画角を大きくすることによっても、同様のズームアウトした画像を得ることが可能である。このようなズームアウトした状態の画像が撮影されることで、中心位置の座標が撮影画像に含まれ易くなる。よって、再度、S28〜S36の処理が行われれば、複数のキャラクタの中心位置を含み、キャラクタの頭を映し出すことのできる候補カメラを、1以上、確保することができる(S37:YES)。なお、ズームアウトしても候補カメラが得られなければ(S37:NO)、さらに、仮想カメラ61の配置位置が撮影向きに対しマイナス方向に移動され(S38)、同様の処理が繰り返される。
なお、S52では、S2のキャラクタ設定処理で設定されたキャラクタのセリフも、コマ画像に重ねて表示される。具体的に、図2の操作画面20のコマ画像表示領域22には、図3に示す、三次元仮想空間60に配置された仮想カメラ61からフィギュアA、フィギュアBおよびフィギュアCが撮影された画像が表示されている。操作画面20では、1体目のキャラクタとしてキャラクタ選択リスト36に「フィギュアA」が設定されている。フィギュアAのセリフとしてセリフ入力ボックス32に「こんにちは」が入力されている。重要度選択リスト33には、キャラクタの位置づけとして「主人公」が設定されている。2体目のキャラクタとしてキャラクタ選択リスト46に「フィギュアB」が設定されている。フィギュアBのセリフとしてセリフ入力ボックス42に「初めまして」が入力されている。重要度選択リスト43には、キャラクタの位置づけとして「サブキャラ」が設定されている。3体目のキャラクタとしてキャラクタ選択リスト56に「フィギュアC」が設定されている。フィギュアCにはセリフがなく、セリフ入力ボックス52には何も入力されていない。重要度選択リスト53には、キャラクタの位置づけとして、デフォルトの「モブキャラ」が設定されている。
コマ画像表示領域22には、図示しない提示画面で選択された撮影画像が表示される。表示されたコマ画像には、キャラクタの中心位置(図3においてフィギュアA,B,Cのそれぞれの配置位置の座標の平均座標)が含まれている。さらに、上記のようにセリフが設定されている場合、文字数等に応じてあらかじめ設定された大きさの吹き出し枠が作成され、枠内にセリフが配置され、コマ画像に重ねて表示される。なお、重要度については後述する。
以上のように、漫画作成支援装置として機能する本実施の形態のPC1では、コマ画像を生成するにあたり、撮影された画像内にキャラクタの頭が含まれているか否かについて判定が行われる。これにより、キャラクタの頭が含まれる画像のみが、コマ画像の候補として提示される。このため、確実に、キャラクタの頭が含まれる画像を、コマ画像の候補として提示することができる。
また、キャラクタが複数の場合には、撮影された画像内に複数のキャラクタの中心位置の座標も含まれるようにする。これにより、候補として選択される仮想カメラ61で三次元仮想空間60内が撮影されれば、複数のキャラクタが映し出された画像が生成されやすい。その上で、キャラクタの頭を含む画像がコマ画像の候補として提示されることで、複数のキャラクタが映し出された画像であっても、確実に、キャラクタの頭が含まれる画像を、コマ画像の候補として提示することができる。
また、撮影された画像内に複数のキャラクタの中心位置の座標が含まれない場合は、仮想カメラ61をキャラクタから遠ざける制御、あるいは、仮想カメラ61の画角を大きくする制御を行うことができる。画角は固定のまま、仮想カメラ61がキャラクタから遠ざけられける制御が行われれば、図4に示す、仮想スクリーン68が大きくなり、より広い範囲を撮影することができる。また、配置位置は固定のまま、仮想カメラ61の画角が大きくされる制御が行われても、同様に、図4に示す、仮想スクリーン68が大きくなり、より広い範囲を撮影することができる。これにより、いわゆるズームアウトした画像を撮影することができる。よって、撮影画像内に、中心位置の座標を含めやすくすることができる。その上で、キャラクタの頭を含む画像がコマ画像の候補として提示されることで、複数のキャラクタが映し出された画像であっても、確実に、キャラクタの頭が含まれる画像を、コマ画像の候補として提示することができる。あるいは、撮影された画像内に複数のキャラクタの中心位置の座標が含まれない場合に、重要度が最も高いキャラクタの頭が含まれているか否かについて判定を行うことができる。これにより、重要度が最も高いキャラクタの頭が含まれる画像のみが、コマ画像の候補として提示される。このため、確実に、重要度が最も高いキャラクタの頭が含まれる画像を、コマ画像の候補として提示することができる。
また、提示画面に並べて表示される複数の候補画像の中から選択された画像をコマ画像として決定することができるので、より望ましい画像をコマ画像として用いることができる。また、撮影画像の生成は、三次元仮想空間60内の座標から二次元の座標に変換するアフィン変換により行われるので、撮影画像内にキャラクタの頭が含まれるか否かについて、座標に基づく判定を行うことができる。よって、コマ画像の候補として提示する画像に、キャラクタの頭が含まれることの確実性を、より高めることができる。
なお、上記の実施形態に示される漫画作成支援装置の構成は例示であり、本発明は各種の変形が可能なことはいうまでもない。例えば、本実施の形態では、仮想カメラ61の配置位置あるいは画角はあらかじめ定められた値に設定されるが、任意に変更できるようにしてもよい。
また、候補カメラによる撮影画像は、図示しない提示画面に並べて表示され、ユーザによるコマ画像の選択が行われたが、候補カメラが1つの場合は、提示画面への表示が行われず、直接、コマ画像表示領域22に表示されるようにしてもよい。また、S27で算出した中心位置の座標は、キャラクタの配置座標から求められたが、キャラクタの顔や頭、胸など、身体部位の位置座標に対する中心位置の座標として求められてもよい。
また、S37で、候補カメラがなかった場合に、重要度の高いキャラクタの頭を含む撮影画像が、コマ画像の候補として提示されてもよい。本実施の形態では、図6に示すように、三次元仮想空間60内に複数のキャラクタが配置された場合に、複数のキャラクタの中心位置を含み、キャラクタの頭を映し出すことのできる仮想カメラ61が、候補カメラに選択された(S32:YES、S33:YES、S34)。そこで、候補カメラを得られなかった場合には(S37:NO)、図7に示すように、重要度が最も高いキャラクタの頭の位置座標が取得される(S56)。前述したように、キャラクタの重要度は、重要度選択リスト33,43,53によって選択された位置づけに対応した数値が、S2のキャラクタ設定処理において、各キャラクタに対応づけられている。最も高い数値が設定されたキャラクタ(例えば「主人公」に設定されたフィギュアA)の頭の位置座標が、キャラクタの情報として取得され、RAM5の作業用の記憶エリアに書き込まれる。さらに、S28〜S36の処理(図6参照)で行われた仮想カメラ61の選択状態がリセットされ、いずれの仮想カメラ61も未選択の状態に設定される(S57)。その後、S13に進み、S13〜S19の処理が繰り返されることによって、重要度の高いキャラクタ(フィギュアA)の頭を映し出すことのできる候補カメラを得ることが可能である。
なお、本実施の形態においては、PC1が「漫画作成支援装置」に相当する。S1の配置設定処理を実行するCPU2が、「配置手段」に相当する。S12で、キャラクタの頭の位置座標(頭位置情報に相当する。)を取得するCPU2が、「第1取得手段」に相当する。S14で、仮想カメラ61の配置位置の座標(視点位置情報に相当する。)、撮影方向62(視線方向情報に相当する。)、画角(画角情報に相当する。)を取得するCPU2が、「第2取得手段」に相当する。S17で、オブジェクト(キャラクタ)の頭の位置座標が撮影範囲に含まれるか否かを判定するCPU2が、「第1判定手段」に相当する。S46で、候補の仮想カメラ61により撮影された画像を提示画面(図示外)に提示するため、表示制御部9から出力される映像信号(提示信号に相当する。)を発生させるCPU2が、「信号発生手段」に相当する。S27で、オブジェクト(キャラクタ)の配置位置の中心位置の座標(中心位置情報に相当する。)を算出するCPU2が、「決定手段」に相当する。S32で中心位置の座標が撮影範囲に含まれるか否かを判定するCPU2が、「第2判定手段」に相当する。S38で、すべての仮想カメラ61(視点)をズームアウトした状態に制御するCPU2が、「制御手段」に相当する。漫画作成支援プログラムのメインプログラム(図示外)に従い、操作画面20の重要度選択リスト33,43,53から選択されたキャラクタの位置づけに対応する数値を重要度として設定するCPU2が、「重要度設定手段」に相当する。S47で、提示画面(図示外)において選択された画像をコマ画像として決定するCPU2が、「画像決定手段」に相当する。S46で、選択された仮想カメラ61でアフィン変換に基づく一連の座標変換処理によって三次元仮想空間60内を撮影し、二次元の画像を生成するCPU2が、「座標変換手段」に相当する。
1 PC
2 CPU
5 RAM
20 操作画面
22 コマ画像表示領域
32 セリフ入力ボックス
33,43,53 重要度選択リスト
60 三次元仮想空間
61 仮想カメラ
62 撮影方向
2 CPU
5 RAM
20 操作画面
22 コマ画像表示領域
32 セリフ入力ボックス
33,43,53 重要度選択リスト
60 三次元仮想空間
61 仮想カメラ
62 撮影方向
Claims (8)
- 少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置であって、
三次元仮想空間内の所定の位置に、少なくとも頭と、頭と異なる身体部位とを含むオブジェクトを配置する配置手段と、
三次元仮想空間における前記オブジェクトの頭の位置を示す頭位置情報を取得する第1取得手段と、
三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の位置を示す視点位置情報と、前記視点の視線方向を示す視線方向情報と、前記視点から取得される画像の画角を示す画角情報とを取得する第2取得手段と、
前記頭位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視線方向から前記オブジェクトを映し出した画像に、前記オブジェクトの頭が含まれるか否かを判定する第1判定手段と、
前記第1判定手段に含まれると判定された前記視点により取得された画像を、前記コマの画像の候補として提示する提示信号を発生する信号発生手段と、
を備えることを特徴とする漫画作成支援装置。 - 前記配置手段により前記オブジェクトが複数配置された場合、前記オブジェクトのそれぞれの前記頭位置情報に基づいて、複数の前記オブジェクトの配置位置の中心位置を示す中心位置情報を決定する決定手段と、
前記中心位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視点方向から前記オブジェクトを映し出した画像に、前記中心位置が含まれるか否かを判定する第2判定手段と、
をさらに備え、
前記信号発生手段は、前記第2判定手段に含まれると判定された前記視点により取得された画像を、前記コマ画像の候補として提示する前記提示信号を発生することを特徴とする請求項1に記載の漫画作成支援装置。 - 前記視点の前記視線方向に沿って前記視点の視点位置を移動させる制御、または、前記視点から取得される画像の画角を変更する制御を行う制御手段をさらに備え、
前記第2判定手段に含まれると判定された前記視点がなかった場合、
前記制御手段は、それぞれの前記視点に対し、前記視点の視点位置を前記オブジェクトから遠ざける制御、または、前記視点から取得される画像の画角を大きくする制御を行い、
前記第2取得手段は、それぞれの前記視点から、前記視点位置情報と前記視線方向情報と前記画角情報とを取得し、
前記第2判定手段は、それぞれの前記視点から前記オブジェクトを映し出した画像に前記中心位置が含まれるか否かを判定し、
前記信号発生手段は、前記第2判定手段に含まれると判定された前記視点により取得された画像を、前記コマ画像の候補とする前記提示信号を発生すること
を特徴とする請求項2に記載の漫画作成支援装置。 - 前記オブジェクトのそれぞれに重要度を設定可能な重要度設定手段をさらに備え、
前記第2判定手段に含まれると判定された前記視点がなかった場合、
前記第1判定手段は、それぞれの前記視点において、前記オブジェクトを映し出した画像に、前記重要度が最も高い前記オブジェクトの頭が含まれるか否かを判定し、
前記信号発生手段は、前記第1判定手段に含まれると判定された前記視点により取得された画像を、前記コマ画像の候補とする前記提示信号を発生すること
を特徴とする請求項2に記載の漫画作成支援装置。 - 前記提示信号に基づき選択された画像を、前記コマ画像として決定する画像決定手段をさらに備えたことを特徴とする請求項1から4のいずれかに記載の漫画作成支援装置。
- 前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、三次元仮想空間内の任意の位置の座標を、前記視点から映し出した画像における二次元の座標に変換する座標変換手段をさらに備え、
前記第1判定手段は、前記座標変換手段によって二次元の座標に変換された前記オブジェクトの頭の位置座標が、前記視点から映し出した画像内に含まれるか否かを判定することを特徴とする請求項1から5のいずれかに記載の漫画作成支援装置。 - 少なくとも一コマ以上のコマを含む漫画が作成されるコンピュータで実行され、前記漫画の作成を支援する漫画作成支援方法であって、
三次元仮想空間内の所定の位置に、少なくとも頭と、頭と異なる身体部位とを含むオブジェクトを配置する配置ステップと、
三次元仮想空間における前記オブジェクトの頭の位置を示す頭位置情報を取得する第1取得ステップと、
三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の位置を示す視点位置情報、前記視点の視線方向を示す視線方向情報、および、前記視点から取得される画像の画角を示す画角情報を取得する第2取得ステップと、
前記頭位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視線方向から前記オブジェクトを映し出した画像に、前記オブジェクトの頭が含まれるか否かを判定する第1判定ステップと、
前記第1判定ステップに含まれると判定された前記視点により取得された画像を、前記コマの画像の候補として提示する提示信号を発生する信号発生ステップと、
を含む漫画作成支援方法。 - 少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置として機能させるためのプログラムであって、
コンピュータに、
三次元仮想空間内の所定の位置に、少なくとも頭と、頭と異なる身体部位とを含むオブジェクトを配置する配置ステップと、
三次元仮想空間における前記オブジェクトの頭の位置を示す頭位置情報を取得する第1取得ステップと、
三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の位置を示す視点位置情報、前記視点の視線方向を示す視線方向情報、および、前記視点から取得される画像の画角を示す画角情報を取得する第2取得ステップと、
前記頭位置情報と前記視線方向情報と前記視点位置情報と前記画角情報とに基づいて、それぞれの前記視点における前記視線方向から前記オブジェクトを映し出した画像に、前記オブジェクトの頭が含まれるか否かを判定する第1判定ステップと、
前記第1判定ステップに含まれると判定された前記視点により取得された画像を、前記コマの画像の候補として提示する提示信号を発生する信号発生ステップと、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065157A JP2011198138A (ja) | 2010-03-19 | 2010-03-19 | 漫画作成支援装置、漫画作成支援方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065157A JP2011198138A (ja) | 2010-03-19 | 2010-03-19 | 漫画作成支援装置、漫画作成支援方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011198138A true JP2011198138A (ja) | 2011-10-06 |
Family
ID=44876228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010065157A Pending JP2011198138A (ja) | 2010-03-19 | 2010-03-19 | 漫画作成支援装置、漫画作成支援方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011198138A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179388A (zh) * | 2019-12-17 | 2020-05-19 | 福建天晴数码有限公司 | 基于3d场景的漫画编辑方法及终端 |
US11087526B2 (en) | 2019-07-29 | 2021-08-10 | Square Enix Co., Ltd. | Image processing program, image processing apparatus, and image processing method |
-
2010
- 2010-03-19 JP JP2010065157A patent/JP2011198138A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087526B2 (en) | 2019-07-29 | 2021-08-10 | Square Enix Co., Ltd. | Image processing program, image processing apparatus, and image processing method |
CN111179388A (zh) * | 2019-12-17 | 2020-05-19 | 福建天晴数码有限公司 | 基于3d场景的漫画编辑方法及终端 |
CN111179388B (zh) * | 2019-12-17 | 2023-12-29 | 福建天晴数码有限公司 | 基于3d场景的漫画编辑方法及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018188499A1 (zh) | 图像、视频处理方法和装置、虚拟现实装置和存储介质 | |
CN110402425B (zh) | 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 | |
JP2009237680A (ja) | プログラム、情報記憶媒体および画像生成システム | |
JP4285422B2 (ja) | 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体 | |
CN109906600B (zh) | 模拟景深 | |
CN111161392B (zh) | 一种视频的生成方法、装置及计算机系统 | |
CN117197403A (zh) | 混合现实系统及使用该系统生成虚拟内容的方法 | |
KR102539427B1 (ko) | 화상 처리장치, 화상 처리방법, 및 기억매체 | |
US9754398B1 (en) | Animation curve reduction for mobile application user interface objects | |
CN105389090A (zh) | 游戏交互界面显示的方法及装置、移动终端和电脑终端 | |
JP2022545598A (ja) | 仮想対象の調整方法、装置、電子機器、コンピュータ記憶媒体及びプログラム | |
KR20200103115A (ko) | 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램 | |
CN111739134B (zh) | 虚拟角色的模型处理方法、装置及可读存储介质 | |
JP2017059041A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN116958344A (zh) | 虚拟形象的动画生成方法、装置、计算机设备及存储介质 | |
JP2011198135A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
JP2023171298A (ja) | 拡張現実及び複合現実のための空間とコンテンツの適合 | |
WO2017002483A1 (ja) | プログラム、情報処理装置、深度定義方法及び記録媒体 | |
JP2011198138A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
US20200134779A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
CN108510433B (zh) | 空间展示方法、装置及终端 | |
JP2012014392A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
JP2012014391A (ja) | 漫画作成支援装置、漫画作成支援方法およびプログラム | |
US6633291B1 (en) | Method and apparatus for displaying an image | |
JP6371547B2 (ja) | 画像処理装置、方法、および、プログラム |