JP2011198135A - 漫画作成支援装置、漫画作成支援方法およびプログラム - Google Patents

漫画作成支援装置、漫画作成支援方法およびプログラム Download PDF

Info

Publication number
JP2011198135A
JP2011198135A JP2010065154A JP2010065154A JP2011198135A JP 2011198135 A JP2011198135 A JP 2011198135A JP 2010065154 A JP2010065154 A JP 2010065154A JP 2010065154 A JP2010065154 A JP 2010065154A JP 2011198135 A JP2011198135 A JP 2011198135A
Authority
JP
Japan
Prior art keywords
viewpoint
image
virtual space
character
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010065154A
Other languages
English (en)
Inventor
Kazuyuki Sato
和之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010065154A priority Critical patent/JP2011198135A/ja
Publication of JP2011198135A publication Critical patent/JP2011198135A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】コマ画像として用いる画像に、キャラクタの顔画像を優先するか、全体場面の画像を優先するかを設定することができる漫画作成支援装置、漫画作成支援方法およびプログラムを提供する。
【解決手段】三次元仮想空間内にキャラクタを含むオブジェクトを配置し、さらに三次元仮想空間内を撮影する複数の仮想カメラを配置する。優先場面として「近写場面」が選択された場合(S23:YES)、カメラ選択処理(1)が行われ(S34)、複数の中から選択された仮想カメラにより撮影されたキャラクタのアップ画像がコマ画像として用いられる(S41)。優先場面として「全体場面」が選択された場合(S28:YESまたはS31:YES)、カメラ選択処理(2)が行われ(S32)、複数の中から選択された仮想カメラにより撮影された背景の画像がコマ画像として用いられる(S41)。
【選択図】図6

Description

本発明は、三次元仮想空間内の一場面を撮影した画像をコマに用いた漫画の作成を支援する漫画作成支援装置、漫画作成支援方法およびプログラムに関する。
従来、映画やアニメーション、ゲーム、漫画、写真集など様々なコンテンツの作成に、三次元コンピュータグラフィックス(CG)が用いられている。CGでは、例えば、三次元仮想空間内の様子が、同空間内に配置された仮想的なカメラであたかも撮影されたかのように、静止画(二次元画像)に変換される。CGアニメーションは、その静止画を時系列に沿って連続的に表示することで、動きのある映像(動画)として表現したものである(例えば特許文献1参照)。動画では、静止画としての視覚効果のみならず、三次元仮想空間内に配置されたオブジェクトの細かな動きを表現することができ、さらにBGMや音声、効果音などを付加して聴覚効果をも得ることができる。このように、動画により作成された作品においては、例えば作品中に登場するキャラクタの喜怒哀楽を、キャラクタの表情のみならず、動きや音声等、様々な手段を用いて容易に表現することができる。
ところで、キャラクタの喜怒哀楽を表現する手法として、例えば、キャラクタの顔をアップにした顔画像を撮影し、視聴者にキャラクタの表情等を識別させ易くすることで、喜怒哀楽を表現する手法がある。漫画は、動画とは異なり動きや音声等による表現を付加できない。このため、上記のように撮影された顔画像が漫画のコマ(漫画における場面の一単位)に用いる画像(以下、「コマ画像」ともいう。)として使用されることが多い。こうした手法を、作品において語られる物語の展開に応じて適宜用いることによって、喜怒哀楽を表現する上でメリハリの効いた表現が実現され、読者に印象づけることができる。
特許文献1は動画を対象とするが、キャラクタの動作や表情、セリフなどのシナリオ要素に応じてカメラ距離が選択され、映画文法に基づく優先度に従って使用するカメラを決定するカメラワークが提案されている。例えば、キャラクタの表情に変化がある場面では、キャラクタの顔をアップにして撮影するカメラが選択され、動きのある場面では、キャラクタの全身を撮影するカメラが選択される。
特開2008−97233号公報
しかしながら、漫画においては、例えば、キャラクタの表情に変化があっても、あえて、背景を含めた場面全体の画像をコマ画像に使用したい場面もある。特許文献1のようにシナリオ要素に応じて決定された画像が、必ずしも、コマ画像として好ましい画像とはいえなかった。
本発明は、上記課題を解決するためになされたものであり、コマ画像として用いる画像に、キャラクタの顔画像を優先するか、全体場面の画像を優先するかを設定することができる漫画作成支援装置、漫画作成支援方法およびプログラムを提供することを目的とする。
本発明の第1態様によれば、少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置であって、三次元仮想空間内の所定の位置に、少なくとも顔を含むオブジェクトを配置する配置手段と、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点から、それぞれの視点位置における所定の視線方向から前記オブジェクトを映しだした画像を取得する画像取得手段と、前記コマにおいて、三次元仮想空間内に配置される前記オブジェクトが重要か、または、三次元仮想空間内の全体場面が重要かを判定する判定手段と、前記判定手段により前記全体場面が重要と判定された場合、前記視線方向に沿って前記視点の視点位置を前記オブジェクトから遠ざける位置に移動させる、または、前記視点から取得される画像の画角を大きくする制御手段と、前記判定手段により前記オブジェクトが重要と判定された場合、前記画像取得手段により取得される画像の中で、前記オブジェクトの顔を含む画像を前記コマとして決定する決定手段と、を備える漫画作成支援装置が提供される。
第1態様では、オブジェクトが重要か、または、全体場面が重要かによって、コマの画像として用いる画像(例えばオブジェクトのアップ画像や背景画像)を決定することができる。これにより、映画文法に基づきシナリオに沿って予想される場面展開とは異なる場面であっても、重要であれば、オブジェクトと視点との距離がその場面に応じた距離で撮影された画像を、コマの画像として用いることができる。よって、漫画の読者に場面展開においてのインパクトを与えることができる。
本発明の第1態様は、前記制御手段により前記視点の視点位置を前記オブジェクトから遠ざける位置に移動、または、前記視点から取得される画像の画角を大きくされた場合、前記オブジェクトから遠ざけられた視点位置における前記視点から、または、画角を大きくされた前記視点から、前記画像取得手段により取得される画像を、前記コマの候補として提示する提示信号を出力する提示手段をさらに備えてもよい。コマの候補として画像を提示することによって、より望ましい画像を、コマの画像として用いることができる。
本発明の第1態様において、前記判定手段により前記オブジェクトが重要と判定された場合、前記制御手段は、前記視点の視点位置を段階的に移動させる制御、または、前記視点から取得される画像の画角を段階的に変更する制御を行い、前記提示手段は、前記制御手段によって視点位置が段階的に移動された前記視点から、または、画角が段階的に変更された前記視点から、前記画像取得手段により取得される、前記オブジェクトの顔を含む画像を、前記コマの候補として提示する前記提示信号を出力してもよい。視点位置を段階的に移動させ、あるいは、画角を段階的に変更することによって、ズームインあるいはズームアウトした同一の視点からの複数の画像をコマの候補とすることができる。このため、より望ましい画像を、コマの画像として用いることができる。
本発明の第1態様は、少なくとも1以上の前記オブジェクトのそれぞれに感情パラメータを設定可能な感情設定手段をさらに備えてもよい。この場合の第1態様において、前記提示手段は、前記感情パラメータが所定値以上の場合には、前記感情パラメータが高い前記オブジェクトの顔を含む画像を、前記コマの候補として提示する前記提示信号を出力してもよい。感情パラメータが所定値以上のオブジェクトが含まれる画像を、確実に、コマの画像として用いることができる。
本発明の第1態様は、少なくとも1以上の前記オブジェクトのそれぞれにセリフを設定可能なセリフ設定手段をさらに備えてもよい。この場合の第1態様において、前記提示手段は、前記キャラクタに前記セリフが設定されている場合には、前記セリフの設定された前記オブジェクトの顔を含む画像を、前記コマの候補として提示する前記提示信号を出力してもよい。セリフが設定されたオブジェクトが含まれる画像を、確実に、コマの画像として用いることができる。
さらに、上記の場合において、前記提示手段は、前記セリフ設定手段により前記オブジェクトにセリフが設定され、かつ、前記判定手段により前記全体場面が重要と判定された場合には、前記制御手段により前記オブジェクトから遠ざけられた視点位置における前記視点から、または、画角を大きくされた前記視点から、前記画像取得手段により取得される画像を、前記コマの候補として提示する前記提示信号を出力してもよい。オブジェクトにセリフが設定されていても、全体場面が重要である場合には、全体場面としてズームアウトした画像をコマの画像として用いることができる。したがって、コマの画像として利用者の望む通りの画像を用いることができる。
本発明の第1態様は、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の視点位置の座標を示す視点情報と、それぞれの視点位置における前記視点の視線方向および画角を示す視線情報と、前記オブジェクトの身体上の特定の位置の座標を示す身体情報とを取得する情報取得手段と、前記情報取得手段により取得された前記視点情報と前記視線情報とに基づいて、三次元仮想空間内の任意の位置の座標を前記視点から映しだした画像における二次元の座標に変換する座標変換手段と、前記情報取得手段により取得された前記身体情報に基づいて、前記座標変換手段による画像内に、前記オブジェクトが映しだされたか否かを判断する判断手段と、をさらに備えてもよい。この場合の第1態様において、前記画像取得手段は、前記判断手段によって前記オブジェクトが映しだされたと判断された画像を取得してもよい。情報取得手段の取得した情報に基づき座標変換手段が座標変換を行うので、判断手段による判断を、座標をもとにして行うことができる。よって、画像取得手段の取得する画像に、オブジェクトが含まれることの確実性を、より高めることができる。
本発明の第2態様によれば、少なくとも一コマ以上のコマを含む漫画が作成されるコンピュータで実行され、前記漫画の作成を支援する漫画作成支援方法であって、三次元仮想空間内の所定の位置に、少なくとも顔を含むオブジェクトを配置する配置ステップと、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点から、それぞれの視点位置における所定の視線方向から前記オブジェクトを映しだした画像を取得する画像取得ステップと、前記コマにおいて、三次元仮想空間内に配置される前記オブジェクトが重要か、または、三次元仮想空間内の全体場面が重要かを判定する判定ステップと、前記判定ステップにより前記全体場面が重要と判定された場合、前記視線方向に沿って前記視点の視点位置を前記オブジェクトから遠ざける位置に移動させる、または、前記視点から取得される画像の画角を大きくする制御ステップと、前記判定ステップにより前記オブジェクトが重要と判定された場合、前記画像取得ステップにより取得される画像の中で、前記オブジェクトの顔を含む画像を前記コマとして決定する決定ステップと、を含む漫画作成支援方法が提供される。
また、本発明の第3態様によれば、少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置として機能させるためのプログラムであって、コンピュータに、三次元仮想空間内の所定の位置に、少なくとも顔と胸部とを含むオブジェクトを配置する配置ステップと、三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点から、それぞれの視点位置における所定の視線方向から前記オブジェクトを映しだした画像を取得する画像取得ステップと、前記コマにおいて、三次元仮想空間内に配置される前記オブジェクトが重要か、または、三次元仮想空間内の全体場面が重要かを判定する判定ステップと、前記判定ステップにより前記全体場面が重要と判定された場合、前記視線方向に沿って前記視点の視点位置を前記オブジェクトから遠ざける位置に移動させる、または、前記視点から取得される画像の画角を大きくする制御ステップと、前記判定ステップにより前記オブジェクトが重要と判定された場合、前記画像取得ステップにより取得される画像の中で、前記オブジェクトの顔と胸部とを含む画像を前記コマとして決定する決定ステップと、を実行させるプログラムが提供される。
第2態様に係る漫画作成支援方法に従う処理をコンピュータで実行することによって、あるいは、第3態様に係るプログラムを実行してコンピュータを漫画作成支援装置として機能させることで、第1態様と同様の効果を得ることができる。
PC1の電気的な構成を示すブロック図である。 漫画作成支援プログラムを実行して表示される操作画面20を示す図である。 三次元仮想空間60を模式的に示す図である。 アフィン変換による座標変換について説明するための図である。 撮影対象が撮影範囲内に含まれるか否かを判定する方法について説明するための図である。 コマ画像生成処理のフローチャートである。 カメラ選択処理(1)のフローチャートである。 カメラ選択処理(2)のフローチャートである。 提示画面55を示す図である。 コマ画像表示処理のS38の処理の変形例を示すフローチャートである。
以下、本発明を具体化した一実施の形態について、漫画作成支援プログラムがインストールされたパーソナルコンピュータ(PC)1を漫画作成支援装置の一例とし、図面を参照して説明する。なお、参照する図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、それのみに限定する趣旨ではなく、単なる説明例である。
まず、図1を参照し、PC1の電気的な構成について説明する。PC1は周知のパーソナルコンピュータであり、PC1の制御を司るCPU2を備えている。CPU2には、バス3を介して、ROM4、RAM5、入出力(I/O)インタフェイス6が接続されている。ROM4は、CPU2が実行するBIOS等のプログラムを記憶する読出し専用の記憶装置である。RAM5は、データを一時的に記憶する読み書き可能な記憶装置である。
入出力インタフェイス6には、ハードディスクドライブ(HDD)7、マルチディスクドライブ8、表示制御部9、キーボード10、マウス11が接続されている。マルチディスクドライブ8は、例えばCD−ROMやDVD−ROMなど、データが記憶された記憶媒体であるディスクROM12が挿入されると、ディスクROM12からデータやプログラム等の読み込みを行うものである。記憶装置であるHDD7には、ディスクROM12から読み出されたプログラムがインストールされ、また、データ等が記憶される。なお、本実施の形態では、後述する漫画作成支援プログラムがディスクROM12に記憶されて提供されるが、フラッシュROMなど、その他の記憶媒体に記憶されて提供されてもよい。あるいは、図示しないネットワークインタフェイスを介して接続されるネットワーク上の他のサーバから、ダウンロードにより、提供されてもよい。表示制御部9は、後述する漫画作成支援プログラムの実行に伴い、操作画面20(図2参照)をモニタ13に表示するための描画処理を行う。キーボード10、マウス11は、漫画作成支援プログラムにおいては、操作画面20上での各種操作や文字等の入力に用いられる。
次に、図2を参照して、モニタ13に表示される操作画面20について説明する。操作画面20は、漫画作成支援プログラムが起動され、後述するメイン処理が開始されるとモニタ13に表示される画面である。ユーザは、操作画面20を見ながらキーボード10やマウス11を用いて、編集や設定のためのデータや指示の入力を行うことができる。
図2に示すように、操作画面20は、コマ表示領域21とキャラクタ設定領域31との2つの表示領域に分かれている。操作画面20の左側のコマ表示領域21には、コマ画像表示領域22が設けられ、コマ画像表示領域22の右側に、場面選択リスト23と候補選択ボタン24が上下に設けられている。コマ表示領域21の下部には、新規コマ作成ボタン25が設けられている。また、コマ表示領域21の下部には、コマ番号26が表示される。操作画面20の右側のキャラクタ設定領域31には、セリフ入力ボックス32が設けられ、セリフ入力ボックス32の右側に、感情選択リスト33が設けられている。キャラクタ設定領域31の下部には、新規キャラクタ作成ボタン35が設けられている。また、セリフ入力ボックス32の上部左側には、キャラクタ選択リスト36が設けられている。
画像表示領域22には、後述する三次元仮想空間60(図3参照)内を、仮想カメラで映しだした画像が表示される。場面選択リスト23は、コマの画像として優先的に使用する場面を設定するためのリストボックスである。ユーザが、リストボックスの右隅にある逆三角形のマークをマウス11のカーソルでクリックして押下すると、場面の選択候補が表示される。本実施の形態では、優先場面として、「近写場面」と、「遠写場面」と、「その他の場面」との各場面のいずれかを選択することができる。近写場面とは、コマ画像として、キャラクタの顔を含む画像(キャラクタを近写して、主にキャラクタの顔(もちろん、胸部を含んでもよい)を主体とした画像)が優先して用いられる場面をいう。近写場面における画像の具体例としては、後述する図9の提示画面55において、上段左から1番目と3番目、中段左から2番目と3番目、および下段の2つの画像を指す。遠写場面とは、コマ画像として、キャラクタが配置された背景の画像(キャラクタを遠目から見た画像)が優先して用いられる場面をいう。また、遠写場面では、キャラクタが複数いる場合には、複数のキャラクタのうち、所定数のキャラクタが含まれるような画像が優先して用いられる。遠写場面における画像の具体例としては、後述する図9の提示画面55において、上段左から2番目と4番目、中段左から1番目と4番目の画像を指す。その他の場面とは、コマ画像として、その他の任意のオブジェクトが表示された画像が優先して用いられる場面をいう。
コマ画像表示領域22に表示される画像は、選択された優先場面に応じた状況を表現する技法で描かれたものに変更される。なお、「近写場面」が優先される場合において、三次元仮想空間60内に複数のキャラクタが配置されている場合、リストボックスが開かれるとすべてのキャラクタの名称が一覧表示される。優先されるキャラクタが選択されると、場面選択リスト23には選択されたキャラクタの名称が表示されるが、優先場面として選択されているのは近写場面である。また、その他の場面が優先される場合においても同様であり、リストボックスを開くと選択可能なオブジェクトの名称が一覧表示される。優先されるオブジェクトが選択されると、場面選択リスト23には選択されたオブジェクトの名称が表示されるが、優先場面として選択されているのは、その他の場面である。
候補選択ボタン24は、コマ画像表示領域22に表示された画像とは異なる画像をコマ画像として設定したい場合に、他の仮想カメラで映しだされた画像が候補として並べて提示される提示画面55(図9参照)を表示させるボタンである。新規コマ作成ボタン25は、新たなコマが作成される場合に操作されるボタンである。新規コマ作成ボタン25が操作された場合には、コマ表示領域21に、新たなコマ画像表示領域22、場面選択リスト23、候補選択ボタン24が、新たなコマ番号26とともに、既に表示されているコマ画像表示領域22等の下部に追加で表示される。なお、コマ数が増えた場合には、スクロールバー27でコマ表示領域21を上下にスクロールさせることができる。
キャラクタ設定領域31のキャラクタ選択リスト36は、三次元仮想空間60内に配置するキャラクタの容姿(CG)を選択するためのリストボックスである。あらかじめインストールされた複数のキャラクタから任意のキャラクタを、そのキャラクタに対応付けられた名称(例えば後述するフィギュアA、フィギュアBなど)で、リストボックスにより指定することができる。キャラクタ選択リスト36には選択されたキャラクタの名称が表示される。セリフ入力ボックス32は、三次元仮想空間60(図3参照)内に配置されるキャラクタのセリフを入力可能なテキストボックスである。セリフの入力がなければ、コマ画像にセリフは表示されない。感情選択リスト33は、キャラクタに喜怒哀楽などの感情を設定するためのリストボックスである。ユーザが、リストボックスの右隅にある逆三角形のマークをマウス11のカーソルでクリックして押下すると、キャラクタの感情の選択候補が表示される。本実施の形態では、「喜び」、「怒り」、「悲しみ」、「楽しみ」など感情を選択することができる。各感情には、キャラクタの感情の高まり具合を数値の大小として比較できるように、あらかじめ、感情パラメータとして、感情の度合いに応じた数値が設定されている。コマ画像表示領域22に表示されるキャラクタの姿勢や態度、表情などは、感情選択リスト33で選択された感情を表現する技法で描かれたものに変更される。なお、感情の種類は、上記の喜怒哀楽に限定するものではない。
新規キャラクタ作成ボタン35は三次元仮想空間60(図3参照)内に新たなキャラクタが配置される場合に操作されるボタンである。新規キャラクタ作成ボタン35が操作された場合には、キャラクタ設定領域31に、新たなキャラクタ用(ここではフィギュアB)の項目が表示される。新たなキャラクタ用の項目とは、具体的に、セリフ入力ボックス42、感情選択リスト43およびキャラクタ選択リスト46である。これらの項目が、既に表示されているキャラクタ用(ここではフィギュアA)のセリフ入力ボックス32等の下部に追加される。なお、上記同様、キャラクタ数が増えた場合には、スクロールバー37でキャラクタ設定領域31を上下にスクロールさせることができる。なお、すべてのコマ画像を所定時間ごとに順に表示するようにした動画として出力できるようにしてもよい。上記のメニューの選択結果やテキストボックスに入力された情報は、漫画作成支援プログラムの実行により指定されたRAM5の所定の記憶エリアに記憶される。
次に、図3を参照し、三次元仮想空間60について説明する。三次元仮想空間60は、漫画作成支援プログラムの実行に伴いCPU2がRAM5に確保した所定の記憶エリアに記憶される座標データ等によって構成されるものである。本実施の形態では、理解を容易にするため、座標データ等に基づき定義される仮想的な空間を、三次元仮想空間60として、例えば図3に示すように、模式的に図に表して説明する。この三次元仮想空間60内のあらゆるオブジェクトは、XYZ座標軸に基づく座標データとして定義される。
三次元仮想空間60内の所定の座標に、キャラクタの一例としてのフィギュアAおよびフィギュアBと、背景の一例としての部屋63とが配置される。部屋63は、背景を構成するオブジェクトとして配置される6つの壁面からなる。さらに、キャラクタの配置位置(座標)を取り巻く24カ所の定位置(ここでは部屋63の壁面の定位置)に、視点(図中黒丸で示す。)が設けられるものとする。説明を容易にするため、各視点には、あらかじめ撮影方向62(視線方向)および画角(垂直画角θ1、水平画角θ2(図4参照)(0°<θ1<180°、0°<θ2<180°))が設定された仮想カメラ61(図3ではそのうちの2つを示す。)が配置されたものとする。そして、仮想カメラ61で三次元仮想空間60内を撮影した画像が、後述するコマ画像として用いられることとする。なお、三次元仮想空間60内に配置されるキャラクタ数や視点数は一例であり、任意に増減可能である。また、キャラクタと視点の配置位置の関係についても任意に設定可能である。
ここで、仮想カメラ61で三次元仮想空間60内が撮影され、二次元の画像が生成される過程について、簡単に説明する。本実施の形態において、三次元仮想空間60内に配置されたオブジェクト(キャラクタのみならず背景等もオブジェクトの一つである。)を二次元の画像に変換する処理は、アフィン変換に基づく一連の座標変換処理によって行われる。アフィン変換とは、二次元の座標変換に使用され、拡大、縮小、反転などの線形変換と平行移動が結合された変換方法である。アフィン変換を用いることで、三次元仮想空間60内に配置した個々のオブジェクトごとに設定された座標(ローカル座標)を、ワールド座標、ビュー座標、スクリーン座標、デバイス座標に順に変換して二次元の座標とすることができる。これにより、視点からオブジェクトを見た画像が生成される。このアフィン変換による座標変換の具体的な処理については公知である。ゆえに、以下では、三次元仮想空間60内に配置したオブジェクトの一例としてのフィギュアAのローカル座標がデバイス座標に変換されるまでの一連の過程の概要を説明する。
図4に示すように、フィギュアAは、頭、胸、手、足など、要所となる身体部位(図中黒丸で示す。)が、それぞれ、XYZ座標軸に基づく座標データとして定義されている。これらの各身体部位の座標は、オブジェクトの基準とする座標(例えば頭の座標)を原点とする位置座標(ローカル座標系64の座標)で、それぞれ定義されている。なお、身体の細部については、さらにこれらの各身体部位を基準にした座標データで定義され、公知のテクスチャマッピング等によって表現されるが、ここでは簡略化のため、細部についての説明は省略する。
フィギュアAの各身体部位のローカル座標系64の座標が、三次元仮想空間60に設定された基準の位置を原点に、三次元仮想空間60の全体をXYZ座標軸に基づく座標データで定義されたワールド座標系65の座標に変換される。また、三次元仮想空間60内に、フィギュアAを見る視点(仮想カメラ61)が設置され、視点の位置がワールド座標系65の座標で定義される。
三次元仮想空間60を定義したワールド座標系65の座標が、視点の位置座標を原点とするビュー座標系66の座標に変換される。そして、ビュー座標系66の座標として定義された三次元仮想空間60内に、平面状の仮想スクリーン68が定義され、仮想カメラ61から仮想スクリーン68を透過させてフィギュアAを見た画像が、仮想スクリーン68上に形成される。具体的に、ビュー座標系66において、フィギュアAの各身体部位の座標が、仮想カメラ61(視点)とフィギュアAの各身体部位とを結ぶ仮想線(図中一点鎖線で示す。)が仮想スクリーン68と交わる点の座標(スクリーン座標)に変換される。
こうして仮想スクリーン68上の座標に変換されたフィギュアAの各身体部位の座標は、この時点ではまだビュー座標系66において三次元の座標として定義されているので、次に二次元平面の座標に変換される。すなわち、ビュー座標系66で示される仮想スクリーン68上の座標(スクリーン座標)が、上記した操作画面20のコマ画像表示領域22(図2参照)に表示する大きさの、デバイス座標系67で示される二次元の仮想画面69上の座標(デバイス座標)に変換される。以上のアフィン変換によるローカル座標からデバイス座標に変換する一連の座標変換によって、三次元仮想空間60内に配置された視点から見た、仮想スクリーン68上にフィギュアAが映しだされた画像を、仮想画面69として得ることができる。背景も含め、三次元仮想空間60内に配置されるすべてのオブジェクトについても同様である。アフィン変換による座標変換処理は、後述の漫画作成支援プログラムの実行に伴うCPU2による行列演算によって行われ、形成された仮想画面69は、RAM5の所定の記憶エリアに記憶される。
また、後述する漫画作成支援プログラムでは、仮想画面69に、撮影対象が映し出されているか否かについての判定を行っている。この判定は、アフィン変換による座標変換処理の過程において行われる。具体的には、フィギュアAの各身体部位の座標が仮想スクリーン68上のスクリーン座標に変換される際に、判定対象となる部位(例えば頭)の座標が、仮想スクリーン68上の座標として取りうる座標の範囲内に含まれるか否かによって判定される。
ここで、図5を参照し、説明を容易にするため、仮想スクリーン68の垂直方向において、撮影対象が撮影範囲内に含まれるか否かを判定する方法について、簡単に説明する。上記したように、仮想カメラ61には撮影方向62および画角(垂直画角θ1、水平画角θ2)が設定されている。図5は、仮想カメラ61の設置位置、すなわち視点をP1とし、P1の座標を原点(x,y,z)=(0,0,0)とするビュー座標系66において、Z軸方向の座標を0としたものである。また、仮想カメラ61の撮影方向62をX軸方向とし、仮想スクリーン68は、垂直方向(Y軸方向)の中央の点P2が、座標(a,0,0)に配置されている。
例えば、ビュー座標系66に変換されたフィギュアAの頭P5の座標を(b,c,0)としたとき、視点P1と頭P5とを結ぶ仮想線と、仮想スクリーン68とが交差する点P6が、仮想スクリーン68上に映し出されるフィギュアAの頭の位置座標となる。よって、P6の座標は、(a,ac/b,0)となる。仮想カメラ61の垂直画角がθ1であるので、仮想スクリーン68の垂直方向における両端の点P3,P4の座標は、それぞれ、P3(a,a・tan(θ1/2),0)、P4(a,−a・tan(θ1/2),0)となる。よって、仮想スクリーン68上に映し出されるフィギュアAの頭P6のY座標、ac/bが、−a・tan(θ1/2)≦ac/b≦a・tan(θ1/2)を満たせば、フィギュアAの頭P5は、仮想スクリーン68の垂直方向において、撮影範囲内にあると判定することができる。
仮想スクリーン68の水平方向についても、水平画角θ2に基づく同様の判定を行うことで、撮影対象が撮影範囲内にあるか否かを判定することができる。そして、垂直方向および水平方向において共に撮影範囲内にあると判定されれば、フィギュアAの頭P5を仮想スクリーン68内に映し出すことができる。すなわち仮想カメラ61がフィギュアAの頭P5を撮影可能である判定することができる。
次に、図2の操作画面20を適宜参照しながら、図6〜図9を参照し、PC1にインストールされた漫画作成支援プログラムの動作について説明する。以下、フローチャートの各ステップを「S」と略記する。
本実施の形態のPC1は、漫画作成支援プログラムが実行されることにより、漫画作成支援装置として機能するものである。漫画作成支援装置は、三次元仮想空間内に配置したオブジェクトを、三次元仮想空間内の視点から映しだした画像をコマの画像とする漫画の作成を支援する装置である。モニタ13に上記した操作画面20が表示され、その操作画面20において各種設定が行われることで、コマ画像表示領域22に表示される画像が変化し、ユーザの求めるコマ画像が作成される。
図6〜図8に示すフローチャートは、操作画面20におけるユーザの操作に応じ、コマ画像表示領域22に表示するコマ画像の生成を行う、コマ画像生成処理のフローチャートである。コマ画像生成処理は、漫画作成支援プログラムのモジュールの一つとして組み込まれ、PC1にインストールされて、HDD7に記憶されている。ユーザが漫画作成支援プログラムの実行ファイルを起動させると、CPU2が、漫画作成支援プログラムのメインプログラム(図示外)に従い、コマ画像生成処理を含む各モジュールを呼び出して実行する。また、RAM5やHDD7には、漫画作成支援プログラムの各処理に応じた記憶エリアが確保される。なお、以下の処理はCPU2により実行される。
漫画作成支援プログラムのメインプログラムでは、初期設定において、プログラム内で使用される変数やフラグ、カウンタ等の初期化が行われる。また、三次元仮想空間60内にオブジェクトとして配置する背景やキャラクタ等に関する各設定や、オブジェクトを構成するポリゴン、テクスチャ等のグラフィックスデータ(以下、総称して「CGデータ」ともいう。)として、HDD7からデフォルトの設定が読み込まれ、RAM5に書き込まれる。
メインプログラムから、図6のコマ画像生成処理のモジュールが呼び出されると、まず、配置設定処理が行われ、三次元仮想空間60内のオブジェクトの一つとして設ける背景のデータが設定される(S1)。本実施の形態では、背景として部屋63の壁面(図3参照)が設定されるものとする。なお、背景として、屋外や、屋内であっても部屋63とは異なる様々な部屋など、任意の舞台を選択できるように、操作画面20にリストボックス等を設けてもよい。
また、配置設定処理では、ワールド座標系65において、背景やキャラクタなどのオブジェクトのローカル座標系64における基準(原点)を三次元仮想空間60内で配置する位置が設定される。また、視点、光源(図示外)等の配置位置の座標(ワールド座標データ)も設定される。各視点には、それぞれ仮想カメラ61(図3参照)が配置され、仮想カメラ61ごとに、視線方向(撮影方向62(図3参照))や画角(垂直画角θ1、水平画角θ2(図4参照))が設定される。なお、本実施の形態では、視点ごとの仮想カメラ61の視線方向および画角は、あらかじめ定められているものとする。メインプログラム(図示外)の初期設定において、HDD7にインストールされた視線方向や画角のデータが初期値として読み出され、RAM5に書き込まれる。上記同様、各視点の位置や各仮想カメラ61の視線方向、画角についても、操作画面20から、ユーザが任意に設定できるようにしてもよい。
さらに、配置設定処理では、三次元仮想空間60内にキャラクタを配置する処理が行われる。図3に示すように、本実施の形態では、三次元仮想空間60内に2体のキャラクタ(フィギュアAおよびフィギュアB)が配置されている。初期設定では、三次元仮想空間60内に1体のキャラクタ(フィギュアA)が配置される。前述した、新規キャラクタ作成ボタン35の操作によって、2体目のキャラクタ(フィギュアB)が追加される。もちろん、三次元仮想空間60内に任意の数のキャラクタを配置できるようにしてもよい。
キャラクタの配置は、具体的には以下のように行われる。まず、キャラクタ選択リスト36で設定されたキャラクタ(ここではデフォルトのフィギュアA)のCGデータがHDD7から読み込まれ、RAM5に書き込まれる。より詳細には、キャラクタ選択リスト36で設定されたキャラクタ(フィギュアA)の各身体部位のローカル座標データ、各身体部位に対応した細部のローカル座標データ、細部に対応したテクスチャデータなどが読み込まれる。
次に、キャラクタの立ち位置、すなわち、三次元仮想空間60内においてキャラクタ(フィギュアA)を配置する位置が選択される。キャラクタの配置位置は、上記のように、ワールド座標データが設定されている。本実施の形態では、キャラクタを配置可能な位置があらかじめ決められており、各キャラクタの設定順(たとえば操作画面20のキャラクタ設定領域31において上からの順)に、各配置位置へ割り当てられるものとする。キャラクタの配置位置のワールド座標データが、上記したキャラクタのCGデータと対応づけられ、RAM5に書き込まれる。もちろん、三次元仮想空間60内の任意の位置に任意のキャラクタを配置できるように、操作画面20からユーザが設定できるようにしてもよい。
さらに、キャラクタ(フィギュアA)の顔が向く向き(顔方向)が、ワールド座標系65のデータとして設定される。本実施の形態では、すべての配置位置について、配置されるキャラクタの顔方向は、あらかじめ定められているものとする。もちろん、三次元仮想空間60内の任意の向きにキャラクタの顔を向けられるように、操作画面20からキャラクタごとの顔方向をユーザが設定できるようにしてもよい。
そして、各データが揃ったキャラクタ(フィギュアA)が、三次元仮想空間60内に配置される。具体的には、上記したアフィン変換に基づき、キャラクタの基準の座標(ここでは頭の座標)がローカル座標系64の座標からワールド座標系65の座標に変換される。次いで顔方向や各身体部位の座標がワールド座標系65において設定される。さらに、各身体部位に応じた細部の座標がローカル座標系64からワールド座標系65の座標に変換され、また、テクスチャデータの大きさや貼り付ける座標がワールド座標系65で設定される。これにより、図3に示すように、三次元仮想空間60内に、キャラクタ(フィギュアA)が、仮想的に配置された状態となる。2体目のキャラクタ(フィギュアB)の配置についても同様である。
図6に示す、コマ画像生成処理では、S2において、キャラクタ設定処理が行われる。ここでは、三次元仮想空間60に配置されたキャラクタのセリフや感情の設定が行われる。配置されたすべてのキャラクタについて、セリフ、感情および感情パラメータと、キャラクタのCGデータとが対応づけられ、RAM5に書き込まれる。セリフは、図2に示す、操作画面20のセリフ入力ボックス32に入力されたものである。感情は、感情選択リスト33で選択されているものである。感情パラメータは、前述したように、感情に応じてあらかじめ設定された数値である。デフォルトの状態ではセリフはなく、感情は「通常」に設定される。また、キャラクタのCGデータのうちの顔のCGデータで、感情に応じてあらかじめ用意されている別の顔(感情に応じた表情)のCGデータがHDD7から読み込まれ、もとの顔のCGデータに上書きされる。さらに、三次元仮想空間60内に配置されたキャラクタの顔のCGデータが、感情に応じたCGデータに変更される。上記したように、三次元仮想空間60はRAM5に確保された記憶エリアにおいて座標データ等により定義される不可視の空間であり、この処理において直接的な画像生成がなされるわけではない。なお、キャラクタの顔以外のCGデータについても、キャラクタが様々な姿勢(格好)をとれるようにあらかじめ複数用意され、感情に応じて、キャラクタの姿勢が変更されるようにしてもよい。もちろん、キャラクタの姿勢をユーザが任意に変更できるように、操作画面20にリストボックス等を設けてもよい。
次に、キャラクタ総数が1より大きいか否か確認される(S21)。三次元仮想空間60内に配置されたキャラクタが1体だけの場合(S21:NO)、配置されたキャラクタが優先対象として決定され(S33)、カメラ選択処理(1)が行われる(S34)。
図7に示す、カメラ選択処理(1)のサブルーチンがコールされると、まず、優先対象として決定されたキャラクタの情報として、配置位置の座標が取得され(読み込まれ)る(S46)。配置位置の座標とは、前述したS1の配置設定処理においてキャラクタと対応づけられた配置位置のワールド座標データである。次に未選択の仮想カメラ61(視点)の1つが選択され(S47)、デフォルトとして設定された、その仮想カメラ61の情報が取得される(S48)。仮想カメラ61の情報とは、すなわち、配置位置の座標(ワールド座標データ)、視線方向(撮影方向62)、画角(垂直画角θ1、水平画角θ2)の情報である。
取得された各情報に基づき、上記したアフィン変換が行われる(S49)。ここでは、キャラクタの基準の座標(頭の座標)に対し、アフィン変換によるワールド座標からビュー座標への座標変換が行われる。そして、キャラクタの基準の座標が、選択された仮想カメラ61の撮影範囲内(仮想スクリーン68内)に含まれるか否か、前述のように判定される(S51)。キャラクタの基準の座標が撮影範囲内に含まれなければ(S51:NO)、S54に進む。キャラクタの基準の座標が撮影範囲内に含まれる場合には(S51:YES)、キャラクタの配置位置の座標と、仮想カメラ61の配置位置の座標とから、キャラクタと仮想カメラ61との距離が計算される(S52)。さらに、この仮想カメラ61が、キャラクタを撮影可能なカメラの候補として、RAM5の所定の記憶エリアに記録される(S53)。そしてS54に進む。
S47〜S53の処理は、三次元仮想空間60内に配置されたすべての仮想カメラ61に対して行われる。よって、未選択の仮想カメラ61があれば、S47に戻る(S54:NO)。すべての仮想カメラ61が選択され、それぞれに対しS47〜S53の処理が行われると(S54:YES)、S52で求められた、キャラクタを撮影可能なカメラと、キャラクタとの距離が比較される(S56)。そして、キャラクタ(すなわち優先対象)に最も距離が近い仮想カメラ61が、コマ画像を作成するのに用いるカメラとして選択され(S57)、図6のコマ画像生成処理に戻る。
コマ画像表示処理では、選択された仮想カメラ61で、上記したアフィン変換に基づく一連の座標変換処理によって、三次元仮想空間60内が撮影され、二次元の画像が生成される(S36)。ここで、操作画面20の候補選択ボタン24が押された状態になければ(S37:NO)、S36で生成された二次元の画像がコマ画像として決定される。例えば候補選択ボタン24が押されると、対応するフラグが成立状態となる。S37では、そのフラグの状態が確認される。コマ画像として決定された画像は、操作画面20のコマ画像表示領域22に表示される(S41)。
また、S41では、S2のキャラクタ設定処理で設定されたキャラクタのセリフも、コマ画像に重ねて表示される。具体的に、図2の操作画面20のコマ画像表示領域22には、図3に示す、三次元仮想空間60に配置された仮想カメラ61からフィギュアAおよびフィギュアBが撮影された画像が表示されている。操作画面20では、1体目のキャラクタとしてキャラクタ選択リスト36に「フィギュアA」が設定されている。また、フィギュアAのセリフとしてセリフ入力ボックス32に「こんにちは」が入力されている。さらに感情選択リスト33には感情として「通常」(デフォルトの状態)が設定されている。また、2体目のキャラクタとしてキャラクタ選択リスト46に「フィギュアB」が設定されている。さらに、フィギュアBのセリフとしてセリフ入力ボックス42に「初めまして」が入力されている。感情選択リスト43には感情として「通常」が設定されている。また、場面選択リスト23には、「遠写場面」が設定されている。よって、コマ画像表示領域22には、キャラクタが配置された背景の画像(キャラクタを遠目から見た画像)を撮影することのできる仮想カメラ61によって撮影された画像が、コマ画像として決定され、表示される。さらに、上記のようにセリフが設定されている場合、文字数等に応じてあらかじめ設定された大きさの吹き出し枠が作成され、枠内にセリフが配置され、コマ画像に重ねて表示される。また、キャラクタに設定された感情については、上記のS2において、キャラクタの顔のCGデータが感情に応じたCGデータに変更されており、コマ画像に反映される。
操作画面20のコマ画像表示領域22へのコマ画像の表示が完了すると、図6のコマ画像生成処理が終了され、メインプログラムに戻る。メインプログラムにおいて、マウス11やキーボード10から操作画面20に対する操作が行われると、その操作に応じたモジュールが呼び出されて実行される。コマ画像の書き換えを伴う処理においては、再度、コマ画像生成処理が実行される。例えば、操作画面20で新規キャラクタ作成ボタン35が押された場合、コマ画像生成処理のモジュールが呼び出され、S1の配置設定処理が行われる。なお、本実施の形態では、視点やキャラクタの配置位置があらかじめ定められているので、背景や光源についての変更がなされない限り、これらの設定に係る処理は行わなくともよい。よってここでは、新たなキャラクタの配置に関する処理が行われ、上記同様に、三次元仮想空間60内に2体目のキャラクタ(フィギュアB)が仮想的に配置された状態となる。
図6に示す、コマ画像生成処理において、S2のキャラクタ設定処理では、S21で、三次元仮想空間60内に配置されたキャラクタが2体となる(S21:YES)。よって、場面選択リスト23で選択されている優先場面が優先対象(撮影対象)として決定される(S22)。上記したように、キャラクタの名称(ここではフィギュアAまたはフィギュアB)が選択されていれば、優先場面は「近写場面」であると判定される(S23:YES)。すると、前述のカメラ選択処理(1)が実行される(S34)。以下では、フィギュアAが優先対象として選択されているものとする。図7に示す、カメラ選択処理(1)では、上記したように、優先対象としてのフィギュアAに最も近いカメラが選択される各処理が行われる。そして図6のコマ画像生成処理に戻り、S36で、選択された仮想カメラ61による三次元仮想空間60内の撮影画像が生成されて、操作画面20のコマ画像表示領域22に表示される(S37:NO、S41)。コマ画像表示領域22へのコマ画像の表示が完了すると、メインプログラムに戻る。
また、図2に示す、操作画面20において、候補選択ボタン24が押された場合には、図6のコマ画像生成処理において、上記のようにコマ画像表示領域22へのコマ画像の表示が行われる。その後、S37においてYESに進む(S37:YES)。S38では、カメラ選択処理(1)のS53において、RAM5に記憶された、優先対象(例えばフィギュアA)を撮影可能な仮想カメラ61による撮影画像が、候補として、図9に示す、提示画面55に並べて表示される(S38)。提示画面55に表示された複数の画像から1つの画像がユーザによって選択されるのを待つ(S39:NO)。1つの画像が選択されたら(S39:YES)、選択された画像が新たなコマ画像として決定され、コマ画像表示領域22に表示される(S41)。このように、コマ画像の候補として複数の画像が提示画面55で提示されれば、より望ましい画像がコマ画像として用いられるようにすることができる。コマ画像表示領域22へのコマ画像の表示が完了すると、図6のコマ画像生成処理を終了し、図示外のメインプログラムに戻る。
次に、図2に示す、操作画面20において、場面選択リスト23で「遠写場面」が優先場面として選択された場合、図6のコマ画像生成処理では、優先対象として背景が設定される(S21:YES、S22)。「近写場面」が優先ではないのでS24に進み(S23:NO)、次に、例えば、感情として「通常」が選択されている場合など、感情パラメータの値があらかじめ設定された所定値(後述)よりも高くなければ(S24:NO)、S27に進む。また、キャラクタにセリフが設定されている場合においては、優先場面として「遠写場面」が選択されていれば(S27:YES、S28:YES)、S32に進む。キャラクタにセリフが設定されていない場合も同様で、優先場面として「遠写場面」が選択されていれば(S27:NO、S31:YES)、S32に進み、カメラ選択処理(2)が行われる(S32)。
図8に示す、カメラ選択処理(2)のサブルーチンがコールされると、まず、三次元仮想空間60内に配置されたすべてのキャラクタの情報として、配置位置の座標が取得される(S61)。ここでは、フィギュアAおよびフィギュアBの配置位置のワールド座標データが取得される。次に未選択の仮想カメラ61(視点)の1つが選択され(S62)、S48と同様に、デフォルトとして設定された、その仮想カメラ61の情報が取得される(S63)。すなわち、仮想カメラ61の配置位置の座標(ワールド座標データ)、視線方向(撮影方向62)、画角(垂直画角θ1、水平画角θ2)が取得される。
変数として定義されるmに1が代入される(S64)。次いで未選択のキャラクタの1体が選択される(S66)。S61で取得されたキャラクタ情報と、S63で取得された仮想カメラ61の情報に基づき、上記したアフィン変換が行われる(S67)。S49と同様に、ここでは選択されたキャラクタの基準の座標(頭の座標)に対し、アフィン変換によるワールド座標からビュー座標への座標変換が行われる。キャラクタの基準の座標が、選択された仮想カメラ61の撮影範囲内(仮想スクリーン68内)に含まれる場合には(S68:YES)、そのキャラクタの基準の座標が記録(RAM5に別途記憶)される。変数mがインクリメントされて(S69)、S71に進む。キャラクタの基準の座標が撮影範囲内に含まれない場合には(S68:NO)、そのままS71に進む。未選択のキャラクタがまだいれば(S71:NO)、S66に戻り、次に選択されるキャラクタについて同様に、基準の座標が撮影範囲内に含まれるか否か判定される(S66〜S69)。
すべてのキャラクタに対してS66〜S69の処理がなされたら(S71:YES)、変数mで表される、選択中の仮想カメラ61で撮影可能なキャラクタの数が、あらかじめ定められた所定数以上か否か、判定される(S72)。変数mが所定数未満であれば(S72:NO)、選択中の仮想カメラ61で撮影がなされても画像内に写るキャラクタ数は所定数に満たないので、その仮想カメラ61を候補とはせず、S76に進む。変数mが所定数以上なら(S72:YES)、記録したキャラクタの基準の座標と、仮想カメラ61の配置位置の座標とから、キャラクタの平均座標が求められ、仮想カメラ61との平均距離が計算される(S73)。さらに、選択中の仮想カメラ61が、キャラクタを撮影可能なカメラの候補として、RAM5の所定の記憶エリアに記録される(S74)。そしてS76に進む。
S62〜S74の処理は、三次元仮想空間60内に配置されたすべての仮想カメラ61に対して行われる。よって、未選択の仮想カメラ61があれば、S62に戻る(S76:NO)。すべての仮想カメラ61が選択され、それぞれに対しS62〜S74の処理が行われると(S76:YES)、S73で求められた、キャラクタと仮想カメラ61との平均距離が比較される(S77)。そして、キャラクタとの平均距離が最も遠い仮想カメラ61が、コマ画像を作成するのに用いるカメラとして選択され(S78)、図6のコマ画像生成処理に戻る。
コマ画像表示処理に戻り、S36では、上記したように、選択された仮想カメラ61によりアフィン変換に基づく二次元の画像が生成され、S41で、操作画面20のコマ画像表示領域22に表示される。このように、優先場面として「遠写場面」が選択されると、三次元仮想空間60内に配置された所定数以上のキャラクタが含まれ、それらキャラクタとの平均距離が最も遠い仮想カメラ61により撮影された画像が、コマ画像として使用される。
ところで上記したように、図2に示す、操作画面20において、場面選択リスト23で「近写場面」が優先場面として選択されていない場合(例えば遠写場面)には、図6に示す、S23では、S24に進む。さらに、操作画面20において、感情選択リスト33で、例えば「喜び」など、感情パラメータの値が所定値よりも高い値にあらかじめ設定されている感情が選択された場合(S24:YES)、S26に進む。なお、感情パラメータの値が所定値よりも高いキャラクタが2体以上ある場合は、感情パラメータがより高いキャラクタが、優先対象として設定される。S26では、S22において設定された優先対象を、感情選択リスト33で、感情パラメータの値が所定値よりも高い感情が選択されたキャラクタに設定し直す(S26)。S34のカメラ選択処理(1)へ進み、S36〜S41の処理を経て、上記同様、生成されたコマ画像がコマ画像表示領域22に表示される。
このように、優先場面として「遠写場面」が選択されていても、「喜び」など、感情パラメータとして高い値が設定されている感情が選択されたキャラクタがあれば、「近写場面」が優先場面として再設定される。つまり、感情パラメータが所定値以上のキャラクタが含まれる画像が、確実に、コマの画像として用いられるようにすることができる。なお、キャラクタの顔などのCGデータが感情に応じた表情のCGデータに置き換えられる点については、前述した通りである。
また、図2に示す、操作画面20において、場面選択リスト23で「その他の場面」が優先場面として選択される場合もある。三次元仮想空間60内に、キャラクタ等とは異なる、図示しない任意のオブジェクト(例えば花瓶)が配置され、そのオブジェクトが優先対象とされる場合、場面選択リスト23において対象のオブジェクト名(ここでは花瓶)が選択される(図6、S22)。図6に示すように、近写場面は優先場面でなく(S23:NO)、遠写場面も優先場面でないので(S31:NO)、S34のカメラ選択処理(1)が実行される。カメラ選択処理(1)については上記した通りであり、任意のオブジェクト(花瓶)を優先対象として、S36〜S41の処理を経て、上記同様、任意のオブジェクトを映したコマ画像が、コマ画像表示領域22に表示される。
優先場面が「その他の場面」である場合においても(S23:NO)、感情パラメータの値が所定値より大きいキャラクタがいる場合がある(S24:YES)。この場合、上記同様、感情パラメータとして高い値が設定されている感情が選択されたキャラクタを優先対象とし(S26)、そのキャラクタを映した画像がコマ画像として使用される(S34〜S41)。また、優先場面が「その他の場面」であり(S23:NO)、感情パラメータの値が所定値より大きいキャラクタがいなくとも(S24:NO)、キャラクタにセリフが設定されている場合がある(S27:YES、S28:NO)。この場合、セリフの設定されたキャラクタを優先対象とし(S29)、そのキャラクタを映した画像がコマ画像として使用される(S34〜S41)。よって、セリフが設定されたキャラクタが含まれる画像を、確実に、コマの画像として用いることができる。また、上記したように、キャラクタにセリフが設定されていても(S27:YES)、遠写場面が重要である場合には(S28:YES)、遠写場面としてズームアウトした画像がコマの画像として用いられる(S32)。したがって、コマの画像として利用者の望む通りの画像を用いることができる。
以上のように、漫画作成支援装置として機能する本実施の形態のPC1では、コマ画像を生成するにあたり、場面選択リスト23において、近写場面や遠写場面を優先場面として選択することができる。つまり、近写場面が重要か、遠写場面が重要かを設定することができる。そして、近写場面が重要か、遠写場面が重要かに基づき、コマの画像として用いる画像(例えばキャラクタのアップ画像や背景画像)を決定することができる。これにより、映画文法に基づきシナリオに沿って予想される場面展開とは異なる場面であっても、重要であれば、キャラクタと視点との距離がその場面に応じた距離で撮影された画像を、コマの画像として用いることができる。よって、漫画の読者に場面展開においてのインパクトを与えることができる。
なお、上記の実施形態に示される漫画作成支援装置の構成は例示であり、本発明は各種の変形が可能なことはいうまでもない。例えば、本実施の形態では、仮想カメラ61の配置位置あるいは画角はあらかじめ定められた値に設定されるが、任意に変更できるようにしてもよい。仮想カメラ61の配置位置あるいは画角を変更すれば、同一の視点に配置された仮想カメラ61で、遠写場面や近写場面を撮影することが可能となる。本実施の形態では、図6のS38において提示画面55(図9参照)に候補の画像が提示された際に、優先対象(例えばフィギュアA)を撮影可能な他の仮想カメラ61による撮影画像を並べた。この提示画面55において、もとのコマ画像が撮影された視点(仮想カメラ61)と同一の視点で、ズームインあるいはズームアウトして撮影された画像が提示されるようにしてもよい。
具体的には、図6のS38の代わりに、図10に示す、S91〜S96の処理が実行される。操作画面20で候補選択ボタン24(図2参照)が押されたら、S32またはS34(図6参照)で選択された仮想カメラ61の視線方向(撮影方向62)の情報が取得される(S91)。次に、仮想カメラ61の配置位置について再計算が行われ、撮影方向62に沿って撮影向きに対しプラス方向(キャラクタに近づく方向)に、所定距離(所定値)、仮想カメラ61の配置位置が移動される(S92)。この位置において、仮想カメラ61で、上記したアフィン変換に基づく一連の座標変換処理によって、三次元仮想空間60内が撮影され、二次元の画像が生成される(S93)。
さらに、仮想カメラ61の配置位置について再計算が行われ、今度は撮影方向62に沿って撮影向きに対しマイナス方向(キャラクタから遠ざかる方向)に、所定距離(所定値)、仮想カメラ61の配置位置が移動される(S94)。この位置において同様に、仮想カメラ61で、上記したアフィン変換に基づく一連の座標変換処理によって、三次元仮想空間60内が撮影され、二次元の画像が生成される(S95)。生成された2つの画像が、候補として、提示画面55(図9参照)に並べて表示される(S96)。以上のS91〜S96の処理が行われ、図6のS39に進み、ユーザによって選択された画像がコマ画像表示領域22に表示されることで、同一の視点から撮影された遠写場面の画像や近写場面の画像を得ることができる。
なお、上記変形例は、仮想カメラ61が撮影方向62に沿って撮影向きに対しプラス方向とマイナス方向へ所定距離移動され、距離を2段階(もとの画像を含むと3段階)に分けた撮影が行われた例である。2段階に限らず、さらに多段階に移動されるようにして、拡大あるいは縮小倍率を多段階に異ならせた複数の画像が提示されてもよい。また、視点の配置位置が移動されるのではなく、画角が変更されることにより、同一の効果を得てもよい。具体的に、仮想カメラ61の垂直画角θ1および水平画角θ2が同率で変更されれば、視点位置は固定のまま、ズームインした近写場面の画像や、ズームアウトした遠写場面の画像が得られる。もちろん、画角の変更についても、多段階に行われてもよい。また、図6のS38の代わりに行うのではなく、S38とは独立に、コマ画像に対し、図10のS91〜S96の処理が適用されてもよい。このように、仮想カメラ61の配置位置(視点位置)が段階的に移動され、あるいは、画角が段階的に変更されることによって、ズームインあるいはズームアウトした同一の視点からの複数の画像がコマ画像の候補とされる。このため、より望ましい画像が、コマの画像として用いられるようにすることができる。
また、本実施の形態では、視点(仮想カメラ61)の配置位置あるいは画角が、視点ごとに、あらかじめ定められた値に設定されることにより、優先場面に応じて、適切な視点が選択されるようにした。例えば、すべての視点の配置位置や画角が、初期状態ではズームインした状態に設定され、優先場面において遠写場面が選択された場合に、ズームアウトした状態に変更されるようにしてもよい。例えばコマ画像生成処理において、以下のような処理を行えばよい。
(i)図6のS1、配置設定処理において、すべての視点(仮想カメラ61)が、オブジェクトをアップにした画像を撮影できるように、各視点の配置位置あるいは画角がズームインした状態に設定される。なお、視線方向(撮影方向62)については本実施の形態と同様の設定とする。
(ii)優先場面として「遠写場面」が選択された場合に実行される、図8のカメラ選択処理(2)において、最初に(S61の処理の前に)、すべての視点がズームアウトされる。すなわち、すべての視点が、キャラクタが配置された背景の画像(キャラクタを遠目から見た画像)を撮影できるように、各視点の配置位置あるいは画角がズームアウトした状態に設定される。
(iii)カメラ選択処理(2)を終了する際に(S78の処理の後に)、すべての視点が、オブジェクトをアップにした画像を撮影できるように、各視点の配置位置あるいは画角をズームインした状態に戻す設定が行われる。
上記の(i)〜(iii)の処理によって、優先場面が近写場面やその他の場面の場合には、各視点の配置位置あるいは画角をズームインした状態で優先対象が撮影された画像が得られる。また、優先場面が遠写場面の場合には、各視点の配置位置あるいは画角をズームアウトした状態で背景が撮影された画像が得られる。
また、図7のカメラ選択処理(1)のS57では、キャラクタに最も距離が近い仮想カメラ61から順に、所定数の仮想カメラ61が選択されてもよい。この場合に、図6のコマ画像生成処理のS36では、選択された所定数の仮想カメラ61による撮影画像が、提示画面55(図9参照)で並べて表示され、ユーザに提示されてもよい。図8のカメラ選択処理(2)のS78で、キャラクタとの平均距離が最も遠い仮想カメラ61から順に、所定数の仮想カメラ61が選択され、同様に、提示画面55でユーザに提示されてもよい。
また、図9の提示画面55では、優先対象(フィギュアA)を撮影可能な仮想カメラ61による撮影画像が並べて表示されている。例えば上段左端の画像や、中段左2番目の画像などは、仮想カメラ61がズームインした状態(近写)で撮影された画像である。また、上段右端の画像や、中段左端の画像などは、仮想カメラ61がズームアウトした状態(遠写)で撮影された画像である。このように、提示画面55には、近写場面が選択されている場合であっても、近写場面の候補となる画像だけでなく、遠写場面の候補となる画像が同時に表示されてもよい。これに限らず、近写場面の候補となる画像だけが、提示画面55に並べて表示されてもよい。あるいは、遠写場面の候補となる画像だけが、提示画面55に並べて表示されてもよい。また、上記図10の変形例で述べたように、同一の視点から、撮影距離あるいは画角が多段階に異ならせて撮影された、遠写場面の画像と近写場面の画像とが、並べて表示されてもよい。
なお、本実施の形態においては、PC1が「漫画作成支援装置」に相当する。S1の配置設定処理を実行するCPU2が、「配置手段」に相当する。S36で、選択された仮想カメラ61でアフィン変換に基づく一連の座標変換処理によって、三次元仮想空間60内を撮影し、二次元の画像を生成するCPU2が、「画像取得手段」に相当する。S24、S28、S31で、優先場面が近写場面か遠写場面かについて判定を行うCPU2が、「判定手段」に相当する。図8のカメラ選択処理(2)の変形例において、最初に(S61の処理の前に)、ズームインした状態に設定されているすべての視点をズームアウトした状態に設定するCPU2が、「制御手段」に相当する。S57で候補の仮想カメラ61の中から優先対象に近い仮想カメラ61を選択するCPU2が、「決定手段」に相当する。S38で、候補の仮想カメラ61により撮影された画像を提示するCPU2が、「提示手段」に相当し、その際に、モニタ13に提示画面55を表示するために表示制御部9から出力される映像信号が、「提示信号」に相当する。漫画作成支援プログラムのメインプログラム(図示外)に従い、操作画面20の感情選択リスト33,43からキャラクタの感情を設定可能とするCPU2が、「感情設定手段」に相当する。漫画作成支援プログラムのメインプログラム(図示外)に従い、操作画面20のセリフ入力ボックス32からキャラクタのセリフを設定可能とするCPU2が、「セリフ設定手段」に相当する。S46またはS61で、オブジェクト(キャラクタ)の位置座標を取得し、S48またはS63で、仮想カメラ61の配置位置の座標、視線方向、画角を取得するCPU2が、「情報取得手段」に相当する。S49またはS67で、アフィン変換に基づく座標変換を行うCPU2が、「座標変換手段」に相当する。S51またはS68で、オブジェクト(キャラクタ)の座標が撮影範囲に含まれるか否かを判断するCPU2が、「判断手段」に相当する。
1 PC
2 CPU
5 RAM
20 操作画面
22 コマ画像表示領域
23 場面選択リスト
32 セリフ入力ボックス
33 感情選択リスト
60 三次元仮想空間
61 仮想カメラ
62 撮影方向

Claims (9)

  1. 少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置であって、
    三次元仮想空間内の所定の位置に、少なくとも顔を含むオブジェクトを配置する配置手段と、
    三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点から、それぞれの視点位置における所定の視線方向から前記オブジェクトを映しだした画像を取得する画像取得手段と、
    前記コマにおいて、三次元仮想空間内に配置される前記オブジェクトが重要か、または、三次元仮想空間内の全体場面が重要かを判定する判定手段と、
    前記判定手段により前記全体場面が重要と判定された場合、前記視線方向に沿って前記視点の視点位置を前記オブジェクトから遠ざける位置に移動させる、または、前記視点から取得される画像の画角を大きくする制御手段と、
    前記判定手段により前記オブジェクトが重要と判定された場合、前記画像取得手段により取得される画像の中で、前記オブジェクトの顔を含む画像を前記コマとして決定する決定手段と、
    を備えることを特徴とする漫画作成支援装置。
  2. 前記制御手段により前記視点の視点位置を前記オブジェクトから遠ざける位置に移動、または、前記視点から取得される画像の画角を大きくされた場合、前記オブジェクトから遠ざけられた視点位置における前記視点から、または、画角を大きくされた前記視点から、前記画像取得手段により取得される画像を、前記コマの候補として提示する提示信号を出力する提示手段をさらに備えることを特徴とする請求項1に記載の漫画作成支援装置。
  3. 前記判定手段により前記オブジェクトが重要と判定された場合、
    前記制御手段は、前記視点の視点位置を段階的に移動させる制御、または、前記視点から取得される画像の画角を段階的に変更する制御を行い、
    前記提示手段は、前記制御手段によって視点位置が段階的に移動された前記視点から、または、画角が段階的に変更された前記視点から、前記画像取得手段により取得される、前記オブジェクトの顔を含む画像を、前記コマの候補として提示する前記提示信号を出力することを特徴とする請求項2に記載の漫画作成支援装置。
  4. 少なくとも1以上の前記オブジェクトのそれぞれに感情パラメータを設定可能な感情設定手段をさらに備え、
    前記提示手段は、前記感情パラメータが所定値以上の場合には、前記感情パラメータが高い前記オブジェクトの顔を含む画像を、前記コマの候補として提示する前記提示信号を出力することを特徴とする請求項2または3に記載の漫画作成支援装置。
  5. 少なくとも1以上の前記オブジェクトのそれぞれにセリフを設定可能なセリフ設定手段をさらに備え、
    前記提示手段は、前記キャラクタに前記セリフが設定されている場合には、前記セリフの設定された前記オブジェクトの顔を含む画像を、前記コマの候補として提示する前記提示信号を出力することを特徴とする請求項2から4のいずれかに記載の漫画作成支援装置。
  6. 前記提示手段は、前記セリフ設定手段により前記オブジェクトにセリフが設定され、かつ、前記判定手段により前記全体場面が重要と判定された場合には、前記制御手段により前記オブジェクトから遠ざけられた視点位置における前記視点から、または、画角を大きくされた前記視点から、前記画像取得手段により取得される画像を、前記コマの候補として提示する前記提示信号を出力することを特徴とする請求項5記載の漫画作成支援装置。
  7. 三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点の視点位置の座標を示す視点情報と、それぞれの視点位置における前記視点の視線方向および画角を示す視線情報と、前記オブジェクトの身体上の特定の位置の座標を示す身体情報とを取得する情報取得手段と、
    前記情報取得手段により取得された前記視点情報と前記視線情報とに基づいて、三次元仮想空間内の任意の位置の座標を前記視点から映しだした画像における二次元の座標に変換する座標変換手段と、
    前記情報取得手段により取得された前記身体情報に基づいて、前記座標変換手段による画像内に、前記オブジェクトが映しだされたか否かを判断する判断手段と、
    をさらに備え、
    前記画像取得手段は、前記判断手段によって前記オブジェクトが映しだされたと判断された画像を取得することを特徴とする請求項1から6のいずれかに記載の漫画作成支援装置。
  8. 少なくとも一コマ以上のコマを含む漫画が作成されるコンピュータで実行され、前記漫画の作成を支援する漫画作成支援方法であって、
    三次元仮想空間内の所定の位置に、少なくとも顔を含むオブジェクトを配置する配置ステップと、
    三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点から、それぞれの視点位置における所定の視線方向から前記オブジェクトを映しだした画像を取得する画像取得ステップと、
    前記コマにおいて、三次元仮想空間内に配置される前記オブジェクトが重要か、または、三次元仮想空間内の全体場面が重要かを判定する判定ステップと、
    前記判定ステップにより前記全体場面が重要と判定された場合、前記視線方向に沿って前記視点の視点位置を前記オブジェクトから遠ざける位置に移動させる、または、前記視点から取得される画像の画角を大きくする制御ステップと、
    前記判定ステップにより前記オブジェクトが重要と判定された場合、前記画像取得ステップにより取得される画像の中で、前記オブジェクトの顔を含む画像を前記コマとして決定する決定ステップと、
    を含む漫画作成支援方法。
  9. 少なくとも一コマ以上のコマを含む漫画の作成を支援する漫画作成支援装置として機能させるためのプログラムであって、
    コンピュータに、
    三次元仮想空間内の所定の位置に、少なくとも顔を含むオブジェクトを配置する配置ステップと、
    三次元仮想空間内の複数の所定の位置に配置されたそれぞれの視点から、それぞれの視点位置における所定の視線方向から前記オブジェクトを映しだした画像を取得する画像取得ステップと、
    前記コマにおいて、三次元仮想空間内に配置される前記オブジェクトが重要か、または、三次元仮想空間内の全体場面が重要かを判定する判定ステップと、
    前記判定ステップにより前記全体場面が重要と判定された場合、前記視線方向に沿って前記視点の視点位置を前記オブジェクトから遠ざける位置に移動させる、または、前記視点から取得される画像の画角を大きくする制御ステップと、
    前記判定ステップにより前記オブジェクトが重要と判定された場合、前記画像取得ステップにより取得される画像の中で、前記オブジェクトの顔を含む画像を前記コマとして決定する決定ステップと、
    を実行させるプログラム。
JP2010065154A 2010-03-19 2010-03-19 漫画作成支援装置、漫画作成支援方法およびプログラム Pending JP2011198135A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065154A JP2011198135A (ja) 2010-03-19 2010-03-19 漫画作成支援装置、漫画作成支援方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065154A JP2011198135A (ja) 2010-03-19 2010-03-19 漫画作成支援装置、漫画作成支援方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2011198135A true JP2011198135A (ja) 2011-10-06

Family

ID=44876225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065154A Pending JP2011198135A (ja) 2010-03-19 2010-03-19 漫画作成支援装置、漫画作成支援方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2011198135A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105957129A (zh) * 2016-04-27 2016-09-21 上海河马动画设计股份有限公司 一种基于语音驱动及图像识别的影视动画制作方法
JP2018055619A (ja) * 2016-09-30 2018-04-05 株式会社ブイシンク 画像表示装置
JP2022508162A (ja) * 2019-04-12 2022-01-19 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想環境に基づく物体構築方法、装置、コンピュータ機器、及びコンピュータプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105957129A (zh) * 2016-04-27 2016-09-21 上海河马动画设计股份有限公司 一种基于语音驱动及图像识别的影视动画制作方法
CN105957129B (zh) * 2016-04-27 2019-08-30 上海河马动画设计股份有限公司 一种基于语音驱动及图像识别的影视动画制作方法
JP2018055619A (ja) * 2016-09-30 2018-04-05 株式会社ブイシンク 画像表示装置
JP2022508162A (ja) * 2019-04-12 2022-01-19 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想環境に基づく物体構築方法、装置、コンピュータ機器、及びコンピュータプログラム
JP7321466B2 (ja) 2019-04-12 2023-08-07 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想環境に基づく物体構築方法、装置、コンピュータ機器、及びコンピュータプログラム
US11911697B2 (en) 2019-04-12 2024-02-27 Tencent Technology (Shenzhen) Company Limited Virtual-environment-based object construction method and apparatus, computer device, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
US10958891B2 (en) Visual annotation using tagging sessions
WO2018188499A1 (zh) 图像、视频处理方法和装置、虚拟现实装置和存储介质
EP3798801A1 (en) Image processing method and apparatus, storage medium, and computer device
US9367942B2 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
JP6367926B2 (ja) 拡張現実(ar)キャプチャおよびプレイ
US9729765B2 (en) Mobile virtual cinematography system
CN106027855B (zh) 一种虚拟摇臂的实现方法和终端
JP2009237680A (ja) プログラム、情報記憶媒体および画像生成システム
US9196074B1 (en) Refining facial animation models
Wang et al. Distanciar: Authoring site-specific augmented reality experiences for remote environments
JP2010134738A (ja) 端末装置、表示制御方法および表示制御プログラム
US11776142B2 (en) Structuring visual data
JP7459870B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2006244306A (ja) 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体
US11044398B2 (en) Panoramic light field capture, processing, and display
US20180115700A1 (en) Simulating depth of field
JP2000076488A (ja) 3次元仮想空間表示装置及びテクスチャオブジェクト設定情報作成装置
US7002584B2 (en) Video information producing device
JP2011198135A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
CN116958344A (zh) 虚拟形象的动画生成方法、装置、计算机设备及存储介质
JP2023171298A (ja) 拡張現実及び複合現実のための空間とコンテンツの適合
EP4125044A2 (en) Image processing apparatus, image processing method, and program
JP2011198138A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
JP2012014392A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム
JP2012014391A (ja) 漫画作成支援装置、漫画作成支援方法およびプログラム